AIエージェント(および)技術がシリコンバレーで急速に拡大する中、2024年には82億ドルの資金が投入され、これらの自律システムは金融、インフラ、意思決定の各分野に徐々に浸透しています。しかし、この技術革命の背後には、重要でありながらしばしば見過ごされる問題が浮上しています。「私たちはどのようにしてAIエージェントの行動が信頼できるかを検証するのでしょうか?」
シリコンバレーは昨年、AIエージェントに82億ドルを投入しました。
すぐに、彼らは私たちのお金、インフラ、そして意思決定を支配するでしょう。
しかし、誰も話していない1つの問題があります:
AIエージェントが真実を語っているかどうかをどのように確認できますか? pic.twitter.com/zEj7z5mGyX
— セルゲイ・ゴルブノフ (@sergey_nog) 2025年4月22日
シリコンバレーはAI代理に熱投しているが、信頼の基盤は依然として「ブラックボックス」なのか?
Chainlinkの共同創業者であるSergey Gorbunov氏は昨夜、AIエージェントは現在、複雑なタスクを独立して完了できる自律システムとしてパッケージ化されているが、そのほとんどは依然として「ブラックボックス」操作であり、ユーザーは内部の意思決定プロセスを知ることができず、盲目的な信頼しか選択できないと指摘した。
真に自律的なAIエージェントは、「停止不可能」と「検証可能」の特性を同時に備えるべきだが、現在のシステムは往々にしてこの基準を満たしていない。
(AI 世界の USB-C インターフェース:Model Context Protocol(MCP)とは?AI アシスタントの汎用コンテキストプロトコルの解釈)
なぜ「検証可能性」が真のセキュリティ保障なのか?
ゴルブノフは、検証可能性がAIエージェントが「何をしたのか?どのようにしたのか?事前に定めたルールに従っているか?」を明確に説明する必要があることを強調した。
これらのメカニズムが欠如している場合、AIエージェントが重要なインフラストラクチャの制御を取得すると、非常に大きなリスクを引き起こす可能性があります。この「検証ギャップ (verification gap)」は、適切に対処されないと、技術の発展における潜在的な危険となるおそれがあります。
三つのAIエージェントのタイプがあり、それぞれ異なる認証要件があります。
EigenLayerの創設者Sreeram Kannanによると、AIエージェントはサービス対象に応じて3つのカテゴリーに分けられます:
個人代理 (パーソナルエージェント):主に個人向けのサービスであり、デジタルアシスタントや、検証のニーズが比較的低いです。
公共代理 (コモンズエージェント):コミュニティにサービスを提供するために、公平性と信頼性を確保するために中程度の強度の検証が必要です。
主権代理 (Sovereign Agents):完全に人間の操作から独立している必要があり、最高レベルの検証能力を備えている必要があります。
今後5年以内にこれらの主権代理が数兆ドルの資産を管理する可能性があり、検証メカニズムが十分に成熟していない場合、「砂上の楼閣」のようになるだろう。
三層次認証システム:AIエージェントの信頼の基盤を再構築する
検証問題を解決するために、カンナンは三層の検証フレームワークを提案しました:
プロアクティブ検証 (Proactive Verification):タスクの実行前に評価を行います。
遡及的検証(Retroactive Verification): タスクの完了後に、タスクの正確性を確認します。
並列検証(Concurrent Verification): タスク実行中の継続的な監視とログ記録。
この構造は、AIの行動を透明化し、信頼度を向上させることができます。
保険金請求から予測市場まで:AIの動作を検証
カンナンは、保険の請求における検証可能なAIエージェントの潜在的な応用についても言及しました。現在、保険業界は単一の会社が発行と審査の役割を兼任しているため、しばしば信頼の危機を引き起こしています。
検証可能なAIエージェントを通じて、保険金請求手続きは独立した審査に転換され、透明なメカニズムで実行および監査され、公平性と信頼性が強化されます。
さらに、EigenBetsのようなプラットフォームは、ZK-TLSと検証可能な推論レイヤー技術を組み合わせることで、予測市場の運営をより透明にし、中央集権的な権威への依存を減らすことができます。
(サム・アルトマンの3つの観察:コストが毎年10倍に下がる、AIエージェントが新しい仕事の標準になる、AIに代替されない資産が価値を上げる)
ブロックチェーン + AI:AIエージェントの未来のチケットを作る
ますます複雑化するAIシステムに直面して、ゴルブノフはブロックチェーン技術が必要な暗号的信頼の基盤を提供し、強力な検証アーキテクチャの構築を支援できると考えています。
ブロックチェーンとAIエージェントを組み合わせることで、信頼性と柔軟性が向上するだけでなく、スマートコントラクトが本当に「スマート」になることで、未来のAIアプリケーションへの道を開きます。
文末、Gorbunov は、YouTube 番組『The Future of AI』のリンクを添付し、AI エージェントの未来の重要な発展は、単により強力なモデルを構築することだけでなく、できるようになることを強調しています:
行動の成果を証明する
透明な推論プロセスの提示
暗号化メカニズムを通じて信頼を得る
彼は強調した:「この三つの大目標を達成することで、AIエージェントは将来のシステムで安全に運用できる。」
この記事は、理財専門家から秘書まで、AIエージェントの信頼の課題についてです:私たちは人工知能の自律的な意思決定を信じることができるのでしょうか? 最初に登場したのは、鏈新聞 ABMediaです。
223k 投稿
188k 投稿
141k 投稿
79k 投稿
66k 投稿
62k 投稿
60k 投稿
57k 投稿
52k 投稿
51k 投稿
理財アドバイザーから秘書まで、AI代理の信頼の課題:私たちは人工知能の自律的な意思決定を信じることができるのか?
AIエージェント(および)技術がシリコンバレーで急速に拡大する中、2024年には82億ドルの資金が投入され、これらの自律システムは金融、インフラ、意思決定の各分野に徐々に浸透しています。しかし、この技術革命の背後には、重要でありながらしばしば見過ごされる問題が浮上しています。「私たちはどのようにしてAIエージェントの行動が信頼できるかを検証するのでしょうか?」
シリコンバレーは昨年、AIエージェントに82億ドルを投入しました。
すぐに、彼らは私たちのお金、インフラ、そして意思決定を支配するでしょう。
しかし、誰も話していない1つの問題があります:
AIエージェントが真実を語っているかどうかをどのように確認できますか? pic.twitter.com/zEj7z5mGyX
— セルゲイ・ゴルブノフ (@sergey_nog) 2025年4月22日
シリコンバレーはAI代理に熱投しているが、信頼の基盤は依然として「ブラックボックス」なのか?
Chainlinkの共同創業者であるSergey Gorbunov氏は昨夜、AIエージェントは現在、複雑なタスクを独立して完了できる自律システムとしてパッケージ化されているが、そのほとんどは依然として「ブラックボックス」操作であり、ユーザーは内部の意思決定プロセスを知ることができず、盲目的な信頼しか選択できないと指摘した。
真に自律的なAIエージェントは、「停止不可能」と「検証可能」の特性を同時に備えるべきだが、現在のシステムは往々にしてこの基準を満たしていない。
(AI 世界の USB-C インターフェース:Model Context Protocol(MCP)とは?AI アシスタントの汎用コンテキストプロトコルの解釈)
なぜ「検証可能性」が真のセキュリティ保障なのか?
ゴルブノフは、検証可能性がAIエージェントが「何をしたのか?どのようにしたのか?事前に定めたルールに従っているか?」を明確に説明する必要があることを強調した。
これらのメカニズムが欠如している場合、AIエージェントが重要なインフラストラクチャの制御を取得すると、非常に大きなリスクを引き起こす可能性があります。この「検証ギャップ (verification gap)」は、適切に対処されないと、技術の発展における潜在的な危険となるおそれがあります。
三つのAIエージェントのタイプがあり、それぞれ異なる認証要件があります。
EigenLayerの創設者Sreeram Kannanによると、AIエージェントはサービス対象に応じて3つのカテゴリーに分けられます:
個人代理 (パーソナルエージェント):主に個人向けのサービスであり、デジタルアシスタントや、検証のニーズが比較的低いです。
公共代理 (コモンズエージェント):コミュニティにサービスを提供するために、公平性と信頼性を確保するために中程度の強度の検証が必要です。
主権代理 (Sovereign Agents):完全に人間の操作から独立している必要があり、最高レベルの検証能力を備えている必要があります。
今後5年以内にこれらの主権代理が数兆ドルの資産を管理する可能性があり、検証メカニズムが十分に成熟していない場合、「砂上の楼閣」のようになるだろう。
三層次認証システム:AIエージェントの信頼の基盤を再構築する
検証問題を解決するために、カンナンは三層の検証フレームワークを提案しました:
プロアクティブ検証 (Proactive Verification):タスクの実行前に評価を行います。
遡及的検証(Retroactive Verification): タスクの完了後に、タスクの正確性を確認します。
並列検証(Concurrent Verification): タスク実行中の継続的な監視とログ記録。
この構造は、AIの行動を透明化し、信頼度を向上させることができます。
保険金請求から予測市場まで:AIの動作を検証
カンナンは、保険の請求における検証可能なAIエージェントの潜在的な応用についても言及しました。現在、保険業界は単一の会社が発行と審査の役割を兼任しているため、しばしば信頼の危機を引き起こしています。
検証可能なAIエージェントを通じて、保険金請求手続きは独立した審査に転換され、透明なメカニズムで実行および監査され、公平性と信頼性が強化されます。
さらに、EigenBetsのようなプラットフォームは、ZK-TLSと検証可能な推論レイヤー技術を組み合わせることで、予測市場の運営をより透明にし、中央集権的な権威への依存を減らすことができます。
(サム・アルトマンの3つの観察:コストが毎年10倍に下がる、AIエージェントが新しい仕事の標準になる、AIに代替されない資産が価値を上げる)
ブロックチェーン + AI:AIエージェントの未来のチケットを作る
ますます複雑化するAIシステムに直面して、ゴルブノフはブロックチェーン技術が必要な暗号的信頼の基盤を提供し、強力な検証アーキテクチャの構築を支援できると考えています。
ブロックチェーンとAIエージェントを組み合わせることで、信頼性と柔軟性が向上するだけでなく、スマートコントラクトが本当に「スマート」になることで、未来のAIアプリケーションへの道を開きます。
文末、Gorbunov は、YouTube 番組『The Future of AI』のリンクを添付し、AI エージェントの未来の重要な発展は、単により強力なモデルを構築することだけでなく、できるようになることを強調しています:
行動の成果を証明する
透明な推論プロセスの提示
暗号化メカニズムを通じて信頼を得る
彼は強調した:「この三つの大目標を達成することで、AIエージェントは将来のシステムで安全に運用できる。」
この記事は、理財専門家から秘書まで、AIエージェントの信頼の課題についてです:私たちは人工知能の自律的な意思決定を信じることができるのでしょうか? 最初に登場したのは、鏈新聞 ABMediaです。