# AI+Web3: タワーとプラザ### ポイント1. AIコンセプトのWeb3プロジェクトが一次および二次市場で資金を集めるターゲットとなっています。2. Web3におけるAI業界の機会は主に次の点に現れます: 分散型インセンティブを利用して、長尾の潜在供給(をデータ、ストレージ、計算)を横断的に調整し、オープンソースモデルとAIエージェントの分散型市場を構築することです。3. AIはWeb3業界で主にオンチェーン金融(暗号支払い、取引、データ分析)および開発支援に使用されます。4. AI+Web3の価値は両者の相互補完にあります: Web3はAIの集中化に対処することが期待されており、AIはWeb3がクラスターの制限を突破するのを助けることが期待されています。### はじめにここ2年で、AIの発展は加速の兆しを見せており、ChatGPTが引き起こした生成型AIの熱潮は新たな世界を切り開くだけでなく、Web3分野でも波を巻き起こしています。AIコンセプトの後押しにより、暗号市場の資金調達が明らかに回復しています。統計によると、2024年上半期だけで64のWeb3+AIプロジェクトが資金調達を完了し、その中でZyber365がAラウンドで1億ドルの最高資金調達を達成しました。二次市場はさらに活発で、Coingeckoのデータによると、AI分野の総市場価値は485億ドルに達し、24時間の取引量は近く86億ドルです。主流のAI技術の進展が好材料をもたらし、OpenAIがSoraを発表した後、AIセクターの平均上昇幅は151%に達しました。AI効果は暗号通貨の人気セクターであるMemeにも及び、最初のAIエージェント概念のMemeCoin—GOATが急速に人気を博し、評価は14億ドルに達し、AI Memeの熱潮を引き起こしました。AI+Web3に関連する研究やトピックが引き続き注目を集めており、AI+DepinからAI Memecoin、そして現在のAIエージェントやAI DAOに至るまで、新たな物語が次々と生まれています。この熱い資金、ブーム、未来の想像に満ちた組み合わせは、資本によって推進されるお見合いと見なされるのは避けられません。私たちは、投機家の狂乱なのか、それとも夜明け前の爆発なのかを判断するのは難しいです。重要なのは、双方が相手のモデルから利益を得ることができるかどうかです。本稿では、Web3がAI技術の各段階でどのように機能するか、そしてAIがWeb3にもたらす新しい機会について探ります。! [AI+Web3: タワー&プラザ](https://img-cdn.gateio.im/social/moments-25bce79fdc74e866d6663cf31b15ee55)### 一、AIスタック下のWeb3の機会このトピックを探求する前に、AI大規模モデルの技術スタックを理解する必要があります。一般的に言えば、「大モデル」は人間の脳に似ており、初期は赤ちゃんのように大量の情報を観察し吸収して世界を理解する必要があります。これはデータの「収集」段階です。コンピュータは人間の多感覚を欠いているため、トレーニングの前に、無標識情報を「前処理」してコンピュータが理解できる形式に変換する必要があります。データを入力すると、AIは「トレーニング」を通じて理解と予測能力を持つモデルを構築します。これは、赤ちゃんが外界を理解し学んでいく過程に似ています。モデルのパラメーターは、赤ちゃんが言語能力を絶えず調整するように変化します。学習内容が専門分化されたり、人と交流してフィードバックを受けて修正されると、「ファインチューニング」の段階に入ります。子供が成長して話すようになると、新しい対話の中で理解し、考えを表現できるようになります。これはAIの大規模モデルの「推論」に似ており、新しい言語のテキスト入力に対して予測分析を行うことができます。赤ちゃんは言語を使って感情を表現し、物体を説明し、問題を解決します。これはAIの大規模モデルがトレーニングを終えた後、推論段階でさまざまな特定のタスクに適用されるのに似ています。例えば、画像分類や音声認識などです。AIエージェントは、独立してタスクを実行し、複雑な目標を追求できる大規模モデルの次の形態により近いです。思考、記憶、計画能力を持ち、ツールを使用して世界と相互作用することができます。AIの各スタックの痛点に対応して、Web3は現在、AIモデルプロセスの各段階をカバーする多層的な相互接続エコシステムを初歩的に形成しています。! [AI+Web3:タワー&スクエア](https://img-cdn.gateio.im/social/moments-cc3bf45e321f9b1d1280bf3bb827d9f4)#### 1.基本レイヤー:計算能力とデータのためのAirbnb **ハッシュレート**AIの主なコストの一つは、モデルのトレーニングと推論に必要な計算力とエネルギーです。例えば、MetaのLLAMA3は、トレーニングを完了するために16000個のNVIDIA H100GPUを30日間必要とします。80GB版の単価は3-4万ドルで、4-7億ドルのハードウェア投資が必要です(GPU+ネットワークチップ)、毎月のトレーニングには16億キロワット時の電力を消費し、エネルギー支出は約2000万ドルです。AIの計算力の圧力に対して、DePin(の分散型物理インフラネットワーク)は、Web3の中で最も早くAIと交差した分野です。DePin Ninjaは1400以上のプロジェクトをリストアップしており、GPU計算力の共有の代表例としてio.net、Aethir、Akash、Render Networkなどがあります。主な論理は、プラットフォームが無許可の分散型方式で不使用のGPUリソースを提供できるようにし、UberやAirbnbのような売買双方のオンライン市場を通じてGPUの利用率を向上させ、ユーザーが低コストで効率的な計算リソースを得られるようにすることです。同時に、質押メカニズムは、品質管理に違反したりネットワークを中断した場合に罰則を受けることを保証します。特異:- 余ったGPUを集める: 供給は主に中小のデータセンター、暗号マイニングファームなどの過剰な計算能力、PoSマイニングハードウェア(FileCoin/ETHマイナー)から来ています。exolabなどのプロジェクトは、MacBook、iPhone、iPadなどのローカルデバイスを利用して、大規模モデル推論の計算ネットワークを構築することに取り組んでいます。- AI計算力のロングテール市場に向けて:技術的な面では推論ステップにより適しています。訓練は超大規模なGPUクラスターに依存し、推論はGPUに対する要求が低いです。例えば、Aethirは低遅延レンダリングとAI推論に焦点を当てています。需要側の中小規模の計算力需要者は、大規模モデルを単独でトレーニングすることはなく、主にトップモデルの最適化と微調整を行い、分散型の余剰計算力に適しています。- 分散型所有権: ブロックチェーン技術は、リソースの所有者がコントロールを保持し、柔軟に調整し、利益を得られることを保証します。**データ**データはAIの基盤です。データがなければ、計算は無意味であり、データの質がモデルの出力の質を決定します。AIモデルのトレーニングにおいて、データは言語能力、理解能力、価値観、そして人間らしい表現を決定します。現在、AIデータの需要に関する困難は主に次のようなものです:- データ飢餓:AIモデルのトレーニングには膨大なデータが必要です。GPT-4のパラメータ数は兆レベルに達しています。- データ品質: AIと各業界の結合は、データのタイムリーさ、多様性、専門性、ソーシャルメディアの感情などの新しいデータソースに対して新しい要求を提起しています。- プライバシーコンプライアンス: 各国の企業はデータセットのクロールを徐々に制限しています。- 処理コストが高い: データ量が多く、処理が複雑です。AI企業の30%以上の研究開発コストはデータ収集と処理に使われています。Web3ソリューション:1.データ収集:無料でリアルなデータを収集することが尽きつつあり、AI企業のデータ支出は年々増加していますが、実際の貢献者には還元されていません。Web3のビジョンは、貢献するユーザーが価値創造に参加できるようにし、分散型ネットワークを通じて低コストでよりプライベートで価値のあるデータを取得することを奨励することです。- Grass:分散型データレイヤーネットワーク、ユーザーがノードを運営して帯域幅を提供し、リアルタイムデータを取得することでトークン報酬を獲得します。- Vana:データ流動性プール(DLP)の概念を導入し、ユーザーはプライベートデータをアップロードし、第三者に使用を許可することを選択できます。- PublicAI:ユーザーはX上で#AI或#Web3タグを使用し、@PublicAIを通じてデータ収集を実現します。2.データ前処理:AIデータ処理には、標準化、フィルタリング、欠損値の処理などの繰り返し作業を行うために、使用可能な形式にクリーンアップする必要があります。この人間のプロセスはデータアノテーション専門家の業界を生み出し、要求が高まるにつれてハードルが上がり、Web3の非中央集権的インセンティブメカニズムに適しています。- GrassとOpenLayerはデータアノテーションの段階を追加することを検討しています。- Synesisは「Train2earn」という概念を提唱し、データの質を強調し、ユーザーがラベル付けデータを提供すると報酬を得る。- Sapienはタスクをゲーム化し、ユーザーはポイントをステーキングしてより多くのポイントを獲得します。3.データプライバシーの安全性:データプライバシーは、センシティブデータの処理に関わり、データの安全性は未承認のアクセスや破壊、盗難から情報を保護します。Web3プライバシー技術の利点は次のように表れます:(1)センシティブデータのトレーニング;(2)データコラボレーション:複数のデータ所有者がAIトレーニングに共同で参加し、原データを共有する必要がありません。主なプライバシー技術:- 信頼された実行環境(TEE) (Super Protocol など)。- BasedAI、Fhenix.io、Inco Networkなどの完全準同型暗号化(FHE)。- ゼロ知識技術(zk)、Reclaim ProtocolのようにzkTLSを使用してHTTPSトラフィックのゼロ知識証明を生成し、安全に外部サイトのデータをインポートします。現在は初期段階にあり、主な課題は計算コストが高いことです。- EZKLは1M-nanoGPTモデルの証明を生成するのに80分かかります。- zkMLのオーバーヘッドは純粋な計算よりも1000倍以上高い。4.データストレージ:チェーン上にデータと生成されたLLMを保存する必要があります。データの可用性(DA)は核心的な問題であり、イーサリアムのDankshardingアップグレード前のスループットは0.08MBですが、AIモデルのトレーニング推論には通常毎秒50-100GBが必要です。- 0g.AIはAIのニーズに対応した集中型ストレージソリューションで、特徴は高性能なスケーラビリティを持ち、シャーディングとエラーレート符号化を通じて大規模データセットの迅速なアップロードとダウンロードをサポートし、転送速度は毎秒約5GBに達します。#### 2.ミドルウェア:モデルのトレーニングと推論**オープンソースモデルの分散型マーケット**AIモデルのオープンソースに関する論争が続いています。オープンソースは集団的な革新をもたらす利点がありますが、収益化のモデルがない中でどのように開発者のモチベーションを高めるのでしょうか?李彦宏はかつて「オープンソースモデルはますます遅れをとるだろう」と断言しました。Web3は、モデルのトークン化、チームが一部のトークンを保持し、将来の収益の一部をトークン保有者に流すことを可能にする分散型オープンソースモデル市場の可能性を提起します。- BittensorはオープンソースのモデルP2P市場を構築し、複数の「サブネット」で構成されており、リソース提供者はサブネットの目標を満たすために競争し、各サブネットが相互に学習してより強力な知性を実現します。報酬はコミュニティの投票によって分配され、サブネット内でのパフォーマンスに基づいて配分されます。- ORAは初期モデルの発行(IMO)の概念を導入し、AIモデルをトークン化しました。去中心化ネットワークを通じてAIモデルの購入、販売、開発が可能です。- Sentientの分散型AGIプラットフォームは、協力を促進し、AIモデルの複製と拡張を構築し、貢献者に報酬を与えます。- Spectral NovaはAIおよびMLモデルのアプリケーション作成に焦点を当てています。**検証可能な推論**AI推論の「ブラックボックス」問題に対する標準的なWeb3ソリューションは、マルチバリデーターによる繰り返し操作の結果を比較することですが、高性能GPUの不足がコストを高騰させています。より有望な提案は、オフチェーンのAI推論計算にZK証明を実行し、オンチェーンでAIモデルの計算を検証することです。オフチェーンの計算が正しく完了した(ことを証明するために、オンチェーンでの暗号化が必要です。データセットが改ざんされていない)ことを確認しつつ、データの機密性を確保する必要があります。主な利点:- スケーラビリティ: ZK証明は、大量のオフチェーン計算を迅速に確認できます。取引が増加しても、単一のZK証明がすべての取引を検証できます。- プライバシー保護: データとAIモデルの詳細は秘密であり、各当事者は破損していないことを検証できます。- 信頼不要: 中央集権的な側に計算の検証を依存する必要はありません。- Web2の統合:Web2は本質的にオフチェーンの統合であり、検証可能な推論はデータセットとAI計算をチェーン上に持ち込むのに役立ち、Web3の採用率を向上させます。現在のWeb3検証可能な推論技術:- zkML: ゼロ知識証明と機械学習を組み合わせて、データモデルのプライバシーを確保し、基盤となる属性を開示することなく検証可能な計算を可能にします。Modulus LabsはZKMLに基づいてAI構築のZK証明器を発表し、AIプロバイダーがアルゴリズムを正しく実行しているかを確認します。現在の顧客は主にオンチェーンDAppです。- opML: 楽観的集約原則を利用し、争議の発生時刻を検証することでML計算のスケーラビリティ効率を向上させます。「検証者」の結果の一部のみを検証する必要がありますが、高い経済的コストの罰則を設定することで不正行為のコストを引き上げ、冗長な計算を節約します。- TeeML:信頼できる実行環境を使用してML計算を安全に実行し、データモデルを改ざんや未承認のアクセスから保護します。#### 3.アプリケーション層:AIエージェントAIの発展の重点がモデルの能力からAIエージェントへと移行しています。OpenAI、Anthropic、マイクロソフトなどが次々とAIエージェントを開発し、LLM技術のプラットフォーム期を突破しようとしています。OpenAIはAIエージェントを次のように定義しています: LLMを脳として駆動し、自主的な理解、知覚、計画、記憶、ツールの使用能力を持ち、複雑なタスクを自動化して実行するシステム。AIは使用されるツールから使用するツールの主体へと変わり、理想的な知能助手となります。Web3はエージェントにもたらすことができます:**分散化**Web3の非中央集権的特性は、エージェントシステムをより分散した自治にし、PoS、DPoSなどのメカニズムを通じてステーキング者と委託者のインセンティブと罰則メカニズムを確立し、エージェントシステムの民主化を促進します。GaiaNet、Theoriq、HajimeAIはいくつかの試みを行っています。**コールドスタート**AIエージェントの開発とイテレーションには大量の資金が必要であり、Web3は潜在的なプロジェクトが初期資金調達を行うのを助けることができます。- Virtual ProtocolがAIエージェントを導入したトークン発行プラットフォームfun.virtualsを発表し、ユーザーはワンクリックでAIエージェントを展開し、トークンを100%公平に発行することができます。- Spectralは、チェーン上のAIエージェント資産製品の発行をサポートする構想を提案しました: IAO(Initial Agent Offering)を通じてトークンを発行し、AIエージェントは直接投資資金を獲得し、DAOガバナンスのメンバーとなり、投資家にプロジェクトの発展に参加し、収益を共有する機会を提供します。### 二、AIはどのようにWeb3を強化するかAIはWeb3プロジェクトに大きな影響を与え、チェーン上の操作(の最適化、例えばスマートコントラクトの実行や流動性の向上を通じて
AIとWeb3の融合:インフラストラクチャからアプリケーションレイヤーへの革新と機会
AI+Web3: タワーとプラザ
ポイント
AIコンセプトのWeb3プロジェクトが一次および二次市場で資金を集めるターゲットとなっています。
Web3におけるAI業界の機会は主に次の点に現れます: 分散型インセンティブを利用して、長尾の潜在供給(をデータ、ストレージ、計算)を横断的に調整し、オープンソースモデルとAIエージェントの分散型市場を構築することです。
AIはWeb3業界で主にオンチェーン金融(暗号支払い、取引、データ分析)および開発支援に使用されます。
AI+Web3の価値は両者の相互補完にあります: Web3はAIの集中化に対処することが期待されており、AIはWeb3がクラスターの制限を突破するのを助けることが期待されています。
はじめに
ここ2年で、AIの発展は加速の兆しを見せており、ChatGPTが引き起こした生成型AIの熱潮は新たな世界を切り開くだけでなく、Web3分野でも波を巻き起こしています。
AIコンセプトの後押しにより、暗号市場の資金調達が明らかに回復しています。統計によると、2024年上半期だけで64のWeb3+AIプロジェクトが資金調達を完了し、その中でZyber365がAラウンドで1億ドルの最高資金調達を達成しました。
二次市場はさらに活発で、Coingeckoのデータによると、AI分野の総市場価値は485億ドルに達し、24時間の取引量は近く86億ドルです。主流のAI技術の進展が好材料をもたらし、OpenAIがSoraを発表した後、AIセクターの平均上昇幅は151%に達しました。AI効果は暗号通貨の人気セクターであるMemeにも及び、最初のAIエージェント概念のMemeCoin—GOATが急速に人気を博し、評価は14億ドルに達し、AI Memeの熱潮を引き起こしました。
AI+Web3に関連する研究やトピックが引き続き注目を集めており、AI+DepinからAI Memecoin、そして現在のAIエージェントやAI DAOに至るまで、新たな物語が次々と生まれています。
この熱い資金、ブーム、未来の想像に満ちた組み合わせは、資本によって推進されるお見合いと見なされるのは避けられません。私たちは、投機家の狂乱なのか、それとも夜明け前の爆発なのかを判断するのは難しいです。
重要なのは、双方が相手のモデルから利益を得ることができるかどうかです。本稿では、Web3がAI技術の各段階でどのように機能するか、そしてAIがWeb3にもたらす新しい機会について探ります。
! AI+Web3: タワー&プラザ
一、AIスタック下のWeb3の機会
このトピックを探求する前に、AI大規模モデルの技術スタックを理解する必要があります。
一般的に言えば、「大モデル」は人間の脳に似ており、初期は赤ちゃんのように大量の情報を観察し吸収して世界を理解する必要があります。これはデータの「収集」段階です。コンピュータは人間の多感覚を欠いているため、トレーニングの前に、無標識情報を「前処理」してコンピュータが理解できる形式に変換する必要があります。
データを入力すると、AIは「トレーニング」を通じて理解と予測能力を持つモデルを構築します。これは、赤ちゃんが外界を理解し学んでいく過程に似ています。モデルのパラメーターは、赤ちゃんが言語能力を絶えず調整するように変化します。学習内容が専門分化されたり、人と交流してフィードバックを受けて修正されると、「ファインチューニング」の段階に入ります。
子供が成長して話すようになると、新しい対話の中で理解し、考えを表現できるようになります。これはAIの大規模モデルの「推論」に似ており、新しい言語のテキスト入力に対して予測分析を行うことができます。赤ちゃんは言語を使って感情を表現し、物体を説明し、問題を解決します。これはAIの大規模モデルがトレーニングを終えた後、推論段階でさまざまな特定のタスクに適用されるのに似ています。例えば、画像分類や音声認識などです。
AIエージェントは、独立してタスクを実行し、複雑な目標を追求できる大規模モデルの次の形態により近いです。思考、記憶、計画能力を持ち、ツールを使用して世界と相互作用することができます。
AIの各スタックの痛点に対応して、Web3は現在、AIモデルプロセスの各段階をカバーする多層的な相互接続エコシステムを初歩的に形成しています。
! AI+Web3:タワー&スクエア
1.基本レイヤー:計算能力とデータのためのAirbnb
ハッシュレート
AIの主なコストの一つは、モデルのトレーニングと推論に必要な計算力とエネルギーです。
例えば、MetaのLLAMA3は、トレーニングを完了するために16000個のNVIDIA H100GPUを30日間必要とします。80GB版の単価は3-4万ドルで、4-7億ドルのハードウェア投資が必要です(GPU+ネットワークチップ)、毎月のトレーニングには16億キロワット時の電力を消費し、エネルギー支出は約2000万ドルです。
AIの計算力の圧力に対して、DePin(の分散型物理インフラネットワーク)は、Web3の中で最も早くAIと交差した分野です。DePin Ninjaは1400以上のプロジェクトをリストアップしており、GPU計算力の共有の代表例としてio.net、Aethir、Akash、Render Networkなどがあります。
主な論理は、プラットフォームが無許可の分散型方式で不使用のGPUリソースを提供できるようにし、UberやAirbnbのような売買双方のオンライン市場を通じてGPUの利用率を向上させ、ユーザーが低コストで効率的な計算リソースを得られるようにすることです。同時に、質押メカニズムは、品質管理に違反したりネットワークを中断した場合に罰則を受けることを保証します。
特異:
余ったGPUを集める: 供給は主に中小のデータセンター、暗号マイニングファームなどの過剰な計算能力、PoSマイニングハードウェア(FileCoin/ETHマイナー)から来ています。exolabなどのプロジェクトは、MacBook、iPhone、iPadなどのローカルデバイスを利用して、大規模モデル推論の計算ネットワークを構築することに取り組んでいます。
AI計算力のロングテール市場に向けて: 技術的な面では推論ステップにより適しています。訓練は超大規模なGPUクラスターに依存し、推論はGPUに対する要求が低いです。例えば、Aethirは低遅延レンダリングとAI推論に焦点を当てています。 需要側の中小規模の計算力需要者は、大規模モデルを単独でトレーニングすることはなく、主にトップモデルの最適化と微調整を行い、分散型の余剰計算力に適しています。
分散型所有権: ブロックチェーン技術は、リソースの所有者がコントロールを保持し、柔軟に調整し、利益を得られることを保証します。
データ
データはAIの基盤です。データがなければ、計算は無意味であり、データの質がモデルの出力の質を決定します。AIモデルのトレーニングにおいて、データは言語能力、理解能力、価値観、そして人間らしい表現を決定します。現在、AIデータの需要に関する困難は主に次のようなものです:
データ飢餓:AIモデルのトレーニングには膨大なデータが必要です。GPT-4のパラメータ数は兆レベルに達しています。
データ品質: AIと各業界の結合は、データのタイムリーさ、多様性、専門性、ソーシャルメディアの感情などの新しいデータソースに対して新しい要求を提起しています。
プライバシーコンプライアンス: 各国の企業はデータセットのクロールを徐々に制限しています。
処理コストが高い: データ量が多く、処理が複雑です。AI企業の30%以上の研究開発コストはデータ収集と処理に使われています。
Web3ソリューション:
1.データ収集:無料でリアルなデータを収集することが尽きつつあり、AI企業のデータ支出は年々増加していますが、実際の貢献者には還元されていません。Web3のビジョンは、貢献するユーザーが価値創造に参加できるようにし、分散型ネットワークを通じて低コストでよりプライベートで価値のあるデータを取得することを奨励することです。
Grass:分散型データレイヤーネットワーク、ユーザーがノードを運営して帯域幅を提供し、リアルタイムデータを取得することでトークン報酬を獲得します。
Vana:データ流動性プール(DLP)の概念を導入し、ユーザーはプライベートデータをアップロードし、第三者に使用を許可することを選択できます。
PublicAI:ユーザーはX上で#AI或#Web3タグを使用し、@PublicAIを通じてデータ収集を実現します。
2.データ前処理:AIデータ処理には、標準化、フィルタリング、欠損値の処理などの繰り返し作業を行うために、使用可能な形式にクリーンアップする必要があります。この人間のプロセスはデータアノテーション専門家の業界を生み出し、要求が高まるにつれてハードルが上がり、Web3の非中央集権的インセンティブメカニズムに適しています。
GrassとOpenLayerはデータアノテーションの段階を追加することを検討しています。
Synesisは「Train2earn」という概念を提唱し、データの質を強調し、ユーザーがラベル付けデータを提供すると報酬を得る。
Sapienはタスクをゲーム化し、ユーザーはポイントをステーキングしてより多くのポイントを獲得します。
3.データプライバシーの安全性:データプライバシーは、センシティブデータの処理に関わり、データの安全性は未承認のアクセスや破壊、盗難から情報を保護します。Web3プライバシー技術の利点は次のように表れます:(1)センシティブデータのトレーニング;(2)データコラボレーション:複数のデータ所有者がAIトレーニングに共同で参加し、原データを共有する必要がありません。
主なプライバシー技術:
信頼された実行環境(TEE) (Super Protocol など)。
BasedAI、Fhenix.io、Inco Networkなどの完全準同型暗号化(FHE)。
ゼロ知識技術(zk)、Reclaim ProtocolのようにzkTLSを使用してHTTPSトラフィックのゼロ知識証明を生成し、安全に外部サイトのデータをインポートします。
現在は初期段階にあり、主な課題は計算コストが高いことです。
EZKLは1M-nanoGPTモデルの証明を生成するのに80分かかります。
zkMLのオーバーヘッドは純粋な計算よりも1000倍以上高い。
4.データストレージ:チェーン上にデータと生成されたLLMを保存する必要があります。データの可用性(DA)は核心的な問題であり、イーサリアムのDankshardingアップグレード前のスループットは0.08MBですが、AIモデルのトレーニング推論には通常毎秒50-100GBが必要です。
2.ミドルウェア:モデルのトレーニングと推論
オープンソースモデルの分散型マーケット
AIモデルのオープンソースに関する論争が続いています。オープンソースは集団的な革新をもたらす利点がありますが、収益化のモデルがない中でどのように開発者のモチベーションを高めるのでしょうか?李彦宏はかつて「オープンソースモデルはますます遅れをとるだろう」と断言しました。
Web3は、モデルのトークン化、チームが一部のトークンを保持し、将来の収益の一部をトークン保有者に流すことを可能にする分散型オープンソースモデル市場の可能性を提起します。
BittensorはオープンソースのモデルP2P市場を構築し、複数の「サブネット」で構成されており、リソース提供者はサブネットの目標を満たすために競争し、各サブネットが相互に学習してより強力な知性を実現します。報酬はコミュニティの投票によって分配され、サブネット内でのパフォーマンスに基づいて配分されます。
ORAは初期モデルの発行(IMO)の概念を導入し、AIモデルをトークン化しました。去中心化ネットワークを通じてAIモデルの購入、販売、開発が可能です。
Sentientの分散型AGIプラットフォームは、協力を促進し、AIモデルの複製と拡張を構築し、貢献者に報酬を与えます。
Spectral NovaはAIおよびMLモデルのアプリケーション作成に焦点を当てています。
検証可能な推論
AI推論の「ブラックボックス」問題に対する標準的なWeb3ソリューションは、マルチバリデーターによる繰り返し操作の結果を比較することですが、高性能GPUの不足がコストを高騰させています。
より有望な提案は、オフチェーンのAI推論計算にZK証明を実行し、オンチェーンでAIモデルの計算を検証することです。オフチェーンの計算が正しく完了した(ことを証明するために、オンチェーンでの暗号化が必要です。データセットが改ざんされていない)ことを確認しつつ、データの機密性を確保する必要があります。
主な利点:
スケーラビリティ: ZK証明は、大量のオフチェーン計算を迅速に確認できます。取引が増加しても、単一のZK証明がすべての取引を検証できます。
プライバシー保護: データとAIモデルの詳細は秘密であり、各当事者は破損していないことを検証できます。
信頼不要: 中央集権的な側に計算の検証を依存する必要はありません。
Web2の統合:Web2は本質的にオフチェーンの統合であり、検証可能な推論はデータセットとAI計算をチェーン上に持ち込むのに役立ち、Web3の採用率を向上させます。
現在のWeb3検証可能な推論技術:
zkML: ゼロ知識証明と機械学習を組み合わせて、データモデルのプライバシーを確保し、基盤となる属性を開示することなく検証可能な計算を可能にします。Modulus LabsはZKMLに基づいてAI構築のZK証明器を発表し、AIプロバイダーがアルゴリズムを正しく実行しているかを確認します。現在の顧客は主にオンチェーンDAppです。
opML: 楽観的集約原則を利用し、争議の発生時刻を検証することでML計算のスケーラビリティ効率を向上させます。「検証者」の結果の一部のみを検証する必要がありますが、高い経済的コストの罰則を設定することで不正行為のコストを引き上げ、冗長な計算を節約します。
TeeML:信頼できる実行環境を使用してML計算を安全に実行し、データモデルを改ざんや未承認のアクセスから保護します。
3.アプリケーション層:AIエージェント
AIの発展の重点がモデルの能力からAIエージェントへと移行しています。OpenAI、Anthropic、マイクロソフトなどが次々とAIエージェントを開発し、LLM技術のプラットフォーム期を突破しようとしています。
OpenAIはAIエージェントを次のように定義しています: LLMを脳として駆動し、自主的な理解、知覚、計画、記憶、ツールの使用能力を持ち、複雑なタスクを自動化して実行するシステム。AIは使用されるツールから使用するツールの主体へと変わり、理想的な知能助手となります。
Web3はエージェントにもたらすことができます:
分散化
Web3の非中央集権的特性は、エージェントシステムをより分散した自治にし、PoS、DPoSなどのメカニズムを通じてステーキング者と委託者のインセンティブと罰則メカニズムを確立し、エージェントシステムの民主化を促進します。GaiaNet、Theoriq、HajimeAIはいくつかの試みを行っています。
コールドスタート
AIエージェントの開発とイテレーションには大量の資金が必要であり、Web3は潜在的なプロジェクトが初期資金調達を行うのを助けることができます。
Virtual ProtocolがAIエージェントを導入したトークン発行プラットフォームfun.virtualsを発表し、ユーザーはワンクリックでAIエージェントを展開し、トークンを100%公平に発行することができます。
Spectralは、チェーン上のAIエージェント資産製品の発行をサポートする構想を提案しました: IAO(Initial Agent Offering)を通じてトークンを発行し、AIエージェントは直接投資資金を獲得し、DAOガバナンスのメンバーとなり、投資家にプロジェクトの発展に参加し、収益を共有する機会を提供します。
二、AIはどのようにWeb3を強化するか
AIはWeb3プロジェクトに大きな影響を与え、チェーン上の操作(の最適化、例えばスマートコントラクトの実行や流動性の向上を通じて