
zkSNARKs を介した機械学習 (ML) モデル推論の証明は、この 10 年間のスマート コントラクトにおける最も重要な進歩の 1 つになることが約束されています。この開発により、非常に大きな設計空間が開かれ、アプリケーションとインフラストラクチャがより複雑でインテリジェントなシステムに進化できるようになります。
ML 機能を追加することで、スマート コントラクトはより自律的かつ動的になり、静的なルールではなくリアルタイムのオンチェーン データに基づいて意思決定できるようになります。スマート コントラクトは柔軟性があり、最初に契約が作成された時点では予想されていなかったシナリオも含め、さまざまなシナリオに対応できます。つまり、ML 機能は、オンチェーンに配置するスマート コントラクトの自動化、精度、効率、柔軟性を強化します。
検証可能なオフチェーン ML オラクル。生成 AI の継続的な導入により、業界はそのコンテンツに対する署名スキーム (たとえば、記事や画像に署名するニュース出版物) の実装を促進する可能性があります。署名されたデータはゼロ知識証明に対応しており、データを構成可能で信頼できるものにします。 ML モデルは、この署名されたデータをオフチェーンで処理して、予測と分類 (選挙結果や気象現象の分類など) を行うことができます。これらのオフチェーン ML オラクルは、推論を検証し、オンチェーンで証明を公開することで、現実世界の予測市場、保険プロトコル契約などをトラストレスに解決できます。
チェーン上の ML モデルの適用は、主に推論段階、つまりモデルを適用して現実世界のデータを予測する段階に焦点を当てています。 ML スケールのスマート コントラクトを実現するには、コントラクトがそのような予測を取り込める必要がありますが、前述したように、EVM 上でモデルを直接実行することは現実的ではありません。 zkSNARK は、私たちに解決策を提供します。誰でもオフチェーンでモデルを実行し、期待されたモデルが特定の結果を生成したという簡潔で検証可能な証拠を生成できます。この証明はオンチェーンで公開され、スマート コントラクトによって取り込まれてインテリジェンスを強化できます。
この記事では、次のことを行います。
オンチェーン ML の潜在的なアプリケーションとユースケースを確認する
zkML の中核となる新たなプロジェクトとインフラストラクチャを探索する
既存の実装のいくつかの課題と、zkML の将来がどうなるかについて話し合います。
機械学習 (ML) の概要
機械学習 (ML) は、コンピューターがデータから学習して予測や意思決定を行えるようにするアルゴリズムと統計モデルの開発に焦点を当てた人工知能 (AI) のサブ分野です。 ML モデルには通常、次の 3 つの主要コンポーネントがあります。
トレーニング データ: 機械学習アルゴリズムをトレーニングして、新しいデータを予測または分類するために使用される一連の入力データ。トレーニング データは、画像、テキスト、音声、数値データ、またはそれらの組み合わせなど、さまざまな形式を取ることができます。
モデル アーキテクチャ: 機械学習モデルの全体的な構造または設計。これは、階層、活性化関数、およびノードまたはニューロン間の接続のタイプと数を定義します。アーキテクチャの選択は、特定の問題と使用されるデータによって異なります。
モデルパラメーター: モデルが予測を行うためにトレーニング中に学習する値または重み。これらの値は、予測結果と実際の結果の間の誤差を最小限に抑えるために、最適化アルゴリズムによって繰り返し調整されます。
モデルの生成と展開は、次の 2 つのフェーズに分かれています。
トレーニング フェーズ: トレーニング フェーズでは、モデルはラベル付けされたデータセットに公開され、予測結果と実際の結果の間の誤差を最小限に抑えるためにパラメーターが調整されます。通常、トレーニング プロセスには複数の反復またはサイクルが含まれ、モデルの精度は別の検証セットで評価されます。
推論フェーズ: 推論フェーズは、トレーニングされた機械学習モデルを使用して、新しい未知のデータを予測するフェーズです。モデルは入力データを受け取り、学習したパラメーターを適用して、分類や回帰予測などの出力を生成します。
現在、zkML は、主に検証回路でのトレーニングの計算の複雑さのため、トレーニング フェーズではなく、機械学習モデルの推論フェーズに主に焦点を当てています。ただし、zkML が推論に重点を置いていることに制限はありません。非常に興味深い使用例やアプリケーションがいくつか期待されています。
検証済みの推論シナリオ
推論を検証するには 4 つのシナリオが考えられます。
プライベート入力、パブリックモデル。モデル コンシューマー (MC) は、モデル プロバイダー (MP) に対して自分の入力を機密にしたい場合があります。たとえば、MC は、個人の財務情報を開示せずに、信用スコアリング モデルの結果を貸し手に証明したい場合があります。これは、事前コミットメント スキームを使用し、モデルをローカルで実行することで実行できます。
パブリック入力、プライベート モデル。 ML-as-a-Service に関する一般的な問題は、MP が IP を保護するためにパラメーターや重みを非表示にしたい場合があるのに対し、MC は生成された推論が実際に敵対的な設定で指定されたモデルからのものであることを確認したいことです。これは次のようになります。MC When に推論を提供するとき、MP はコストを節約するためにより軽量なモデルを実行するインセンティブを持ちます。オンチェーン モデルの重みの約束を利用して、MC はいつでもプライベート モデルを監査できます。
プライベート入力、プライベートモデル。これは、推論に使用されるデータが非常に機密または機密であり、IP を保護するためにモデル自体が隠されている場合に発生します。この例としては、個人の患者情報を使用したヘルスケア モデルの監査などが挙げられます。マルチパーティ計算 (MPC) または FHE を使用する zk またはバリアントの合成手法を使用して、このシナリオに対応できます。
パブリックインプット、パブリックモデル。モデルのすべての側面を公開できますが、zkML は、オフチェーンの計算をオンチェーン環境に圧縮して検証するという別のユースケースに対応します。大きなモデルの場合、モデルを自分で再実行するよりも、推論の簡潔な zk を検証する方がコスト効率が高くなります。
検証済みの ML 推論は、スマート コントラクトの新しい設計スペースを開きます。暗号ネイティブ アプリケーションには次のようなものがあります。
1、DeFi
検証可能なオフチェーン ML オラクル。生成 AI の継続的な導入により、業界はそのコンテンツに対する署名スキーム (たとえば、記事や画像に署名するニュース出版物) の実装を促進する可能性があります。署名されたデータはゼロ知識証明に対応しており、データを構成可能で信頼できるものにします。 ML モデルは、この署名されたデータをオフチェーンで処理して、予測と分類 (選挙結果や気象現象の分類など) を行うことができます。これらのオフチェーン ML オラクルは、推論を検証し、オンチェーンで証明を公開することで、現実世界の予測市場、保険プロトコル契約などをトラストレスに解決できます。
ML パラメータに基づく DeFi アプリケーション。 DeFi の多くの側面はさらに自動化できる可能性があります。たとえば、融資プロトコルは ML モデルを使用してパラメータをリアルタイムで更新できます。現在、融資プロトコルは主に組織が運営するオフチェーン モデルに依存して、担保要素、融資対価値比率、清算閾値などを決定していますが、より良い選択肢は、誰でも実行できるコミュニティでトレーニングされたオープンソース モデルである可能性があります。そして検証してください。
自動取引戦略。財務モデル戦略のリターン特性を実証する一般的な方法は、MP が投資家にさまざまなバックテスト データを提供することです。ただし、取引を実行するときにストラテジストがモデルに従っていることを確認する方法はありません。投資家はストラテジストが実際にモデルに従っていることを信頼する必要があります。 zkML は、MP が特定の役職に配置されたときに財務モデル推論の証明を提供できるソリューションを提供します。これは、DeFi 管理の保管庫に特に役立つ可能性があります。
3. 従来の ML
スマートコントラクトの不正監視。遅い人間のガバナンスや集中型のアクターに契約を一時停止する機能を制御させるのではなく、ML モデルを使用して、潜在的な悪意のある動作を検出し、契約を一時停止することができます。
3. 従来の ML
Kaggle の分散型でトラストレスな実装。 MP にモデルの重みを開示することを要求せずに、MC またはその他の利害関係者がモデルの精度を検証できるプロトコルまたは市場を作成することができます。これは、モデルの販売、モデルの精度に関するコンテストの開催などに役立ちます。
生成型 AI の分散型プロンプト マーケットプレイス。生成 AI のプロンプト オーサリングは複雑な作業になり、最適な出力を生成するプロンプトには複数の修飾子が含まれることがよくあります。外部関係者は、作成者からこれらの複雑なヒントを購入することをいとわない場合があります。ここで zkML は 2 つの方法で使用できます。1) ヒントの出力を検証し、ヒントが実際に目的の画像を作成することを潜在的な購入者に保証します。
生成型 AI の分散型プロンプト マーケットプレイス。生成 AI のプロンプト オーサリングは複雑な作業になり、最適な出力を生成するプロンプトには複数の修飾子が含まれることがよくあります。外部関係者は、作成者からこれらの複雑なヒントを購入することをいとわない場合があります。ここで zkML は 2 つの方法で使用できます。1) ヒントの出力を検証し、ヒントが実際に目的の画像を作成することを潜在的な購入者に保証します。
4. アイデンティティ
4. アイデンティティ
公平なエアドロップと貢献者報酬。 ML モデルを使用すると、ユーザーの詳細なペルソナを作成し、複数の要素に基づいてエアドロップの割り当てや貢献報酬を決定できます。これは、ID ソリューションと組み合わせる場合に特に役立ちます。この場合、可能性の 1 つは、アプリへの関与だけでなく、ガバナンス フォーラムへの投稿などのより高いレベルの関与を評価するオープンソース モデルをユーザーに実行させ、割り当てについて推論させることです。この証明は、対応するトークン割り当てのコントラクトに提供されます。
秘密キーをプライバシーを保護する生体認証に置き換えます。秘密キーの管理は、依然として Web3 ユーザー エクスペリエンスにおける最大の障害の 1 つです。顔認識またはその他の固有の要素を介して秘密キーを抽象化することは、zkML の可能な解決策の 1 つです。
01 Model-to-Proof コンパイラー
広告/推奨。ソーシャル メディア ユーザーとして、私はパーソナライズされた広告を喜んで見るかもしれませんが、自分の好みや興味は広告主には秘密にしておきたいと考えています。自分の興味に関するモデルをローカルで実行し、それをメディア アプリケーションにフィードしてコンテンツを提供することを選択できます。この場合、広告主はこれを実現するためにエンドユーザーにお金を払うつもりかもしれませんが、これらのモデルは現在制作されているターゲットを絞った広告モデルよりもはるかに洗練されていない可能性があります。
6. クリエイターエコノミー/ゲーム
ゲーム内経済のリバランス。トークンの発行、供給、書き込み、投票のしきい値などは、ML モデルを使用して動的に調整できます。考えられるモデルの 1 つは、特定のリバランスしきい値に達し、推論の証明が検証された場合にゲーム内経済のバランスをリバランスするインセンティブ契約です。
新しいタイプのオンチェーン ゲーム。トラストレス AI モデルが非プレイアブル キャラクターとして機能する、協力的な人間対 AI ゲームやその他の革新的なオンチェーン ゲームを作成できます。 NPC によって行われたすべてのアクションは、正しいモデルが実行されていることを誰でも検証できる証拠とともにオンチェーンに投稿されます。 Modulus Labs の Leela vs. the World では、検証者は、マグナス カールソンではなく、記載されている 1900 ELO AI が動きを選択したことを確認したいと考えていました。もう 1 つの例は、大乱闘スマッシュブラザーズに似た AI 格闘ゲーム、AI Arena です。一か八かの競争環境では、プレイヤーはトレーニングするモデルが干渉したり不正行為をしていないかを確認したいと考えます。
新興プロジェクトとインフラストラクチャー
zkML エコシステムは、次の 4 つの主要カテゴリに大別できます。
Model-to-Proof Compiler: 既存の形式 (Pytorch、ONNX など) のモデルを検証可能な計算回路にコンパイルするためのインフラストラクチャ。
一般化された証明システム: 任意の計算軌跡を検証するための証明システムを構築します。
zkML 固有の証明システム: ML モデルの計算軌跡を検証するために特別に構築された証明システム。
アプリケーション: 独自の zkML ユースケースに取り組んでいるプロジェクト。
01 Model-to-Proof コンパイラー
zkML エコシステムでは、Model-to-Proof コンパイラーの作成に最も注目が集まっています。通常、これらのコンパイラは、Pytorch、Tensorflow などを使用して、高度な ML モデルを zk 回路に変換します。
EZKL は、zk-SNARK の深層学習モデルを推論するためのライブラリおよびコマンドライン ツールです。 EZKL を使用すると、Pytorch または TensorFlow で計算グラフを定義し、JSON ファイル内の入力例を含む ONNX ファイルとしてエクスポートし、EZKL でこれらのファイルを指定して zkSNARK 回路を生成できます。最新のパフォーマンス向上ラウンドにより、EZKL は、MNIST サイズのモデルと 1.1 GB の RAM を最大 6 秒で証明できるようになりました。これまで、EZKL は早期に導入され、さまざまなハッカソン プロジェクトのインフラストラクチャとして使用されてきました。
より一般化された Model-to-Proof コンパイラに関しては、Nil Foundation と Risc Zero があります。 Nil Foundation の zkLLVM は、C++、Rust、JavaScript/TypeScript などの一般的なプログラミング言語で記述された計算モデルを検証できる LLVM ベースの回路コンパイラーです。ここで説明した他のモデル証明コンパイラーと比較すると、これは汎用インフラストラクチャーですが、それでも zkML などの複雑な計算に適しています。これは、証明市場と組み合わせると特に強力になります。
LinearA は、zkML 用の 2 つのフレームワーク、Tachikoma とuchikoma を開発しました。 Tachikoma は、ニューラル ネットワークを整数のみの形式に変換し、計算軌跡を生成するために使用されます。 UchikomaはTVMの中間表現を浮動小数点演算をサポートしていないプログラミング言語に変換するツールです。 LinearA は、ドメイン演算で Circom をサポートし、符号付きおよび符号なし整数演算で Solidity をサポートする予定です。
Daniel Kang の zkml は、論文「Zero-Knowledge Proofs による Trustless DNN Inference のスケールアップ」の成果に基づいて構築された ML モデルの実行を証明するためのフレームワークです。この記事の執筆時点では、約 5 GB のメモリと約 16 秒の実行時間で MNIST 回路を証明できました。
より一般化された Model-to-Proof コンパイラに関しては、Nil Foundation と Risc Zero があります。 Nil Foundation の zkLLVM は、C++、Rust、JavaScript/TypeScript などの一般的なプログラミング言語で記述された計算モデルを検証できる LLVM ベースの回路コンパイラーです。ここで説明した他のモデル証明コンパイラーと比較すると、これは汎用インフラストラクチャーですが、それでも zkML などの複雑な計算に適しています。これは、証明市場と組み合わせると特に強力になります。
Risc Zero は、オープンソース RISC-V 命令セットをターゲットとした汎用 zkVM を構築するため、C++ や Rust などの既存の成熟した言語や LLVM ツールチェーンをサポートします。これにより、Nvidia の CUDA C++ ツールチェーンと同様に、GPU の代わりに ZKP エンジンを使用して、ホストとゲストの zkVM コード間のシームレスな統合が可能になります。 Nil と同様に、Risc Zero を使用して ML モデルの計算軌跡を検証します。
02 一般化された証明システム
他の証明システムにも利点があります。 R 1 CS に基づく証明システムには、小さな証明サイズで知られる Groth 16 と、非常に大規模な回路と線形時間検証器の処理で知られる Gemini が含まれます。 Winterfell 証明者/検証者ライブラリなどの STARK ベースのシステムは、Giza のツールを介して入力として Cairo プログラムのトレースを取得し、Winterfell を使用して STARK 証明を生成し、出力の正しさを検証する場合に特に役立ちます。
このため、Plonkish 証明システムは、zkML の最も人気のあるバックエンドになる傾向があります。 Halo 2 と Plonky 2 およびそれらのテーブル算術スキームは、ルックアップ パラメーターを使用してニューラル ネットワークの非線形性を適切に処理します。さらに、前者は開発者ツールと柔軟性の活発なエコシステムを備えており、EZKL を含む多くのプロジェクトの事実上のバックエンドとなっています。
他の証明システムにも利点があります。 R 1 CS に基づく証明システムには、小さな証明サイズで知られる Groth 16 と、非常に大規模な回路と線形時間検証器の処理で知られる Gemini が含まれます。 Winterfell 証明者/検証者ライブラリなどの STARK ベースのシステムは、Giza のツールを介して入力として Cairo プログラムのトレースを取得し、Winterfell を使用して STARK 証明を生成し、出力の正しさを検証する場合に特に役立ちます。
03 zkML特有の証明システム
高度な機械学習モデルの複雑で回路に不向きな操作を処理できる効率的な証明システムの設計において、ある程度の進歩が見られました。 Modulus Labs のベンチマーク レポートに反映されているように、GKR 証明システムに基づく zkCNN や組み合わせ技術に基づく Zator などのシステムは、ユニバーサル証明システムよりも優れたパフォーマンスを発揮する傾向があります。
Worldcoin は、zkML を適用して、プライバシーを保護する人間の身元証明プロトコルを作成しようとしています。 Worldcoin は、カスタム ハードウェアを使用して高解像度の虹彩スキャンを処理し、それをセマフォ実装に接続します。このシステムは、メンバーシップの証明や投票などの便利な操作を実行するために使用できます。彼らは現在、信頼できるランタイム環境と安全なエンクレーブを使用して、カメラ署名付き虹彩スキャンを検証していますが、最終的な目標は、ゼロ知識証明を使用してニューラル ネットワークの正しい推論を検証し、暗号レベルのセキュリティ保証を提供することです。
Zator は、ディープ ニューラル ネットワークを検証するための再帰的 SNARK の使用を検討することを目的としたプロジェクトです。より深いモデルを検証する際の現在の制限は、計算軌跡全体を単一の回路に当てはめることです。 Zator は、再帰的 SNARK を使用して層ごとに検証することを提案しました。これにより、N ステップの繰り返し計算を段階的に検証できます。彼らは Nova を使用して、N 個のコンピューティング インスタンスを 1 つのステップで検証できる 1 つのインスタンスに減らします。このアプローチを使用して、Zator は 512 層のネットワークを SNARK することができました。これは、現在のほとんどの実稼働 AI モデルと同じ深さです。 Zator の証明の生成と検証にかかる時間は、主流のユースケースにはまだ長すぎますが、それらを組み合わせた技術は依然として非常に興味深いものです。
応用分野
zkML の初期の頃を考えると、主に前述のインフラストラクチャに重点が置かれてきました。ただし、現在、アプリケーション開発に特化したプロジェクトがいくつかあります。
Modulus Labs は、zkML 分野で最も多様なプロジェクトの 1 つであり、サンプル アプリケーションと関連研究の両方に取り組んでいます。応用面では、Modulus Labs は、オンチェーン取引ボットである RockyBot と、実証済みのオンチェーン Leela チェス エンジンと人間が対戦するボード ゲームである Leela vs. the World を使用した zkML のユースケースを実証しました。チームはまた調査を実施し、さまざまなモデルサイズでのさまざまな証明システムの速度と効率をベンチマークする「The Cost of Intelligence」を執筆しました。
Worldcoin は、zkML を適用して、プライバシーを保護する人間の身元証明プロトコルを作成しようとしています。 Worldcoin は、カスタム ハードウェアを使用して高解像度の虹彩スキャンを処理し、それをセマフォ実装に接続します。このシステムは、メンバーシップの証明や投票などの便利な操作を実行するために使用できます。彼らは現在、信頼できるランタイム環境と安全なエンクレーブを使用して、カメラ署名付き虹彩スキャンを検証していますが、最終的な目標は、ゼロ知識証明を使用してニューラル ネットワークの正しい推論を検証し、暗号レベルのセキュリティ保証を提供することです。
Giza は、AI モデルをオンチェーンに展開するための完全にトラストレスなアプローチを採用するプロトコルです。機械学習モデルを表現するために ONNX 形式を使用し、これらのモデルを Cairo プログラム形式に変換するために Giza Transpiler を使用し、検証可能かつ決定論的な方法でモデルを実行するために ONNX Cairo Runtime を使用し、オンチェーン展開に Giza Model スマート コントラクトを使用します。モデルを実行するためのテクノロジー スタック。 Giza は Model-to-Proof コンパイラーとして分類することもできますが、ML モデルの市場としての Giza の位置付けは、現在最も興味深いアプリケーションの 1 つです。
Gensyn は、ML モデルをトレーニングするためのハードウェア プロビジョナーの分散ネットワークです。具体的には、勾配降下法に基づく確率的監査システムを開発し、モデル チェックポイント機能を使用して、分散 GPU ネットワークがフルスケール モデルのトレーニングを提供できるようにしています。ここでの zkML のアプリケーションはユースケースに非常に特化していますが、ノードがモデルの一部をダウンロードしてトレーニングするときに、モデルの更新について誠実であることを保証したいと考えています。これは、zk と ML の強みを組み合わせる力を実証しています。
Giza は、AI モデルをオンチェーンに展開するための完全にトラストレスなアプローチを採用するプロトコルです。機械学習モデルを表現するために ONNX 形式を使用し、これらのモデルを Cairo プログラム形式に変換するために Giza Transpiler を使用し、検証可能かつ決定論的な方法でモデルを実行するために ONNX Cairo Runtime を使用し、オンチェーン展開に Giza Model スマート コントラクトを使用します。モデルを実行するためのテクノロジー スタック。 Giza は Model-to-Proof コンパイラーとして分類することもできますが、ML モデルの市場としての Giza の位置付けは、現在最も興味深いアプリケーションの 1 つです。
Gensyn は、ML モデルをトレーニングするためのハードウェア プロビジョナーの分散ネットワークです。具体的には、勾配降下法に基づく確率的監査システムを開発し、モデル チェックポイント機能を使用して、分散 GPU ネットワークがフルスケール モデルのトレーニングを提供できるようにしています。ここでの zkML のアプリケーションはユースケースに非常に特化していますが、ノードがモデルの一部をダウンロードしてトレーニングするときに、モデルの更新について誠実であることを保証したいと考えています。これは、zk と ML の強みを組み合わせる力を実証しています。
機能強化と最適化が急速に進歩しているにもかかわらず、zkML の分野は依然としていくつかの主要な課題に直面しています。これらの課題には、次のような技術的および実践的な側面が含まれます。
機能強化と最適化が急速に進歩しているにもかかわらず、zkML の分野は依然としていくつかの主要な課題に直面しています。これらの課題には、次のような技術的および実践的な側面が含まれます。
精度の損失を最小限に抑えた量子化
回線サイズ、特にネットワークが複数の層で構成されている場合
精度の損失を最小限に抑えた量子化
攻撃と戦うという点では、やるべきことはまだあります。まず、トラストレス プロトコルまたは DAO がモデルの実装を選択した場合、トレーニング段階で敵対的攻撃のリスクが依然として存在します (例: 特定の入力を見たときに特定の動作を示すようにモデルをトレーニングし、その後の操作に使用される可能性があります)推論)。トレーニング段階でのフェデレーテッド ラーニング技術と zkML は、この攻撃対象領域を最小限に抑える方法である可能性があります。
量子化は、浮動小数点数を固定小数点数として表現するプロセスです。ほとんどの機械学習モデルは、浮動小数点数を使用してモデル パラメーターとアクティベーション関数を表現します。zk 回路の領域演算を扱う場合は、固定小数点数が必要です。機械学習モデルの精度に対する量子化の影響は、使用される精度のレベルによって異なります。一般に、より低い精度 (つまり、より少ないビット) を使用すると、丸め誤差や近似誤差が発生する可能性があるため、精度が低下する可能性があります。ただし、量子化後のモデルの微調整や、量子化対応トレーニングなどの手法の使用など、量子化による精度への影響を最小限に抑えるために使用できる手法がいくつかあります。さらに、zkSummit 9 のハッカソン プロジェクトである Zero Gravity では、無重力ニューラル ネットワークなど、エッジ デバイス向けに開発された代替ニューラル ネットワーク アーキテクチャを使用して、回路内の量子化問題を回避できることが示されました。
量子化のほかに、ハードウェアも重要な課題です。機械学習モデルが回路で正しく表現されると、zk の単純さにより、その推論を検証するための証明が安価かつ高速になります。ここでの課題は検証者ではなく証明者にあります。モデルのサイズが大きくなるにつれて RAM の消費量と証明の生成時間が急速に増加するためです。特定の証明システム (サムチェック プロトコルと階層算術回路を使用する GKR ベースのシステムなど) または組み合わせた技術 (Plonky 2 と Groth 16 の組み合わせなど)、Plonky 2 は証明時間の点では効率的ですが、大規模なモデルでは効率的です。 16 は、複雑なモデルの複雑さにおいて証明サイズの増大につながらない) は、これらの問題を処理するのに適していますが、トレードオフの管理は zkML プロジェクトの中核的な課題です。
攻撃と戦うという点では、やるべきことはまだあります。まず、トラストレス プロトコルまたは DAO がモデルの実装を選択した場合、トレーニング段階で敵対的攻撃のリスクが依然として存在します (例: 特定の入力を見たときに特定の動作を示すようにモデルをトレーニングし、その後の操作に使用される可能性があります)推論)。トレーニング段階でのフェデレーテッド ラーニング技術と zkML は、この攻撃対象領域を最小限に抑える方法である可能性があります。
もう 1 つの主要な課題は、モデルのプライバシーが保護されている場合のモデル盗難攻撃のリスクです。十分な入出力ペアがあれば、モデルの重みを難読化することは可能ですが、重みを逆から推論することは理論的には可能です。これは主に小規模モデルに対するリスクですが、それでもリスクはあります。
スマートコントラクトのスケーラビリティ
スマートコントラクトのスケーラビリティ
私たちは、zkML を、ブロックチェーンとスマート コントラクトの機能を拡張し、より柔軟で、適応性があり、インテリジェントにするように設計された、充実した成長中のエコシステムであると考えています。
これらのモデルを zk の制約内で実行するように最適化する際にはいくつかの課題がありますが、指数関数的な速度で改善が行われており、さらなるハードウェア アクセラレーションにより、すぐに機械学習のより広範な分野で作業できるようになるだろうと期待する人もいます。同じレベル。これらの改善の速度を強調するために、zkML は、2021 年に検証可能な回路で小規模な MNIST 画像分類モデルを実行する方法を示す 0x PARC のデモンストレーションから、1 年も経たないうちに Daniel Kang が ImageNet スケールのモデルに対して同じことを行うまでになりました。書類。 2022 年 4 月には、この ImageNet スケール モデルの精度が 79% から 92% に向上し、GPT-2 のような大規模なモデルも近い将来に可能になると予想されていますが、現在の証明時間はさらに長くなります。