2025年、金融界で2つの変革的な力が衝突している:分散型システムと自律型AI駆動ソフトウェアだ。分散型金融(DeFi)は仲介者の排除と透明性の高い市場を約束し、自律型ソフトウェアはインテリジェントな意思決定を提供する。しかし、どちらも大規模にそれらの約束を果たすには程遠い状況にある。
業界トラッカーによると、2025年第3四半期にDeFiのロックされた総価値(TVL)が1600億ドルを超えたにもかかわらず、いわゆる自動化戦略の多くは、説明責任とリスクガバナンスを備えた真の自律システムではなく、単純なスクリプトと手動監視に依存している。
この現実は重要な問いを投げかける:自律型エージェントは信頼性と透明性を両立させることができるのか?ソフトウェアが行動するだけでなく、その行動に対して説明責任を負うことができるのか?
今日のDeFi自動化の脆弱性
今日のDeFiにおける自動化の多くは、限られた監視で静的なロジックを実行するボットやスクリプトで構成されている。通常の状況では機能するが、ストレス下では失敗することが多い。
2025年10月、急激な市場変動により約24時間で約190億ドルのレバレッジド暗号資産の清算が発生し、リアルタイムのリスクガバナンスを欠くシステムの弱点が露呈した。「多くのポートフォリオマネージャーにとって、『自動化』とは依然として午前3時に起きてポジションを監視することを意味していた」とAIエージェントプロトコルTheoriqのCEOであるロン・ボドキン氏は語る。「それは自律性ではない。単に早いパニックでしかない」
これらの出来事は、測定可能な監視がない脆弱な自動化が、市場リスクを軽減するどころか増幅する可能性があることを浮き彫りにした。
管理された自律性の新たな状態
この問題を解決しようとしているプロトコルの一つが、12月16日にメインネットを立ち上げたTheoriqのAlpha Protocolだ。同チームによると、AIエージェントがオンチェーンルール内で動作し、資本配分がAI自体によって上書きできないスマートコントラクトのガードレールによって制約される枠組みを導入している。さらに、エージェントが行うすべての行動は潜在的に記録され、その行動の背後にある理由が明らかになる。
理論上、このアーキテクチャは自律性と説明責任を調和させようとし、AIが透明性を持って資本を管理できるモデルを提供している。
メインネット立ち上げ前の初期段階であるAlphaVaultは、2025年12月初旬に約2,500のウォレットから約2300万ドルのTVLを集めたと報告されている。ボドキン氏の見解では、完全な立ち上げ前のこのレベルの関与は、透明なガードレールと測定可能な実行が設計の一部である場合、資金配分者の好奇心があることを示唆している。
彼はその違いを明確に述べている:
「今日のDeFiの『自動化』のほとんどは、明確なガードレールのない脆弱な実行だ。資金配分者は、エージェントが何をすることを許可されていたのか、実際に何をしたのか、そしてそれをどのように証明できるのかを知りたがっている。我々は自動化を、単にキーを持つAIボットではなく、組み込みの評価と証明を伴うポリシーに基づくエージェント実行として扱っている」
エージェント経済の形成
しかし、自動化だけでは不十分だ。エージェントが経済的アクターとして機能するためには、他のインフラコンポーネントと相互作用したり、それらを補償したりする能力も必要だ:データに対価を支払い、計算能力を購入し、または専門サービスを調達する。
新興の分散型決済標準X402のようなシステムは、トランザクションごとに人間の承認を必要とせずに機械間取引を可能にする。公開されているプロトコル追跡によると、X402は2025年5月の立ち上げ以来1億件以上の支払いを処理しており、分散型決済レールがエージェントレベルの経済的相互作用をサポートするのに十分成熟していることを示している。
これらの取引のドル取引量の推定値は独立して検証されていないが、活動量自体が実用性を示唆している。これにより、ソフトウェアシステムは戦略的決定を下すだけでなく、分散型で信頼を必要としない方法でそれらを決済することができる。ボドキン氏はこう述べている:
「X402のような新興決済標準を統合することで、自律型エージェントが単に協力するだけでなく、一緒に取引できるインフラを構築している。これは我々が『エージェント経済』と呼ぶものへの一歩だ」
インセンティブと説明責任
管理された自動化が持続可能であるためには、経済的インセンティブが測定可能なパフォーマンスと一致する必要がある。プロジェクトのトークンシステムは、ステーキング、タイムロックされた調整メカニズム、委任を備え、持続可能な行動を強化するように設計されており、一方でスラッシング(罰則)と説明責任の措置は機会主義的な搾取を抑制する。
ネイティブトークンの総供給量は10億単位に固定されており、これは定義された範囲内でインセンティブを固定するのに役立つ経済的パラメータだ。
規制の文脈と透明性
暗号資産が成熟するにつれ、規制の枠組みも追いついてきている。米国では、2025年7月に法律として署名されたGENIUS法が、ステーブルコインに対する最初の連邦基準を導入し、必須の開示とガバナンスの説明責任を含んでいる。一方、EUのMiCA規制は2024年12月に完全に発効し、暗号資産プラットフォームに加盟国全体で一貫した認可と行動基準を満たすことを要求している。
欧州連合や韓国などの管轄区域が人工知能法や韓国のAI基本法のような初期段階を踏んでいるが、自律型ソフトウェアシステムに対するグローバル基準ははるかに未確定で、まだ進化している。ほとんどの政府は、自律型エージェントをどのように管理すべきかを完全に解決することなく、AIの透明性、安全性、説明責任に関する原則を探求している段階だ。
この状況において、追跡可能な実行、ポリシーに基づく行動、透明なエージェント監視を提供するシステムは、既存企業から生まれるか、新しいエージェントネイティブのプロトコルから生まれるかにかかわらず、より良い位置にある可能性が高い。ボドキン氏はこう述べている:
「規制当局は自律型エージェントを新しい法的実体としてではなく、金融活動の新しいインターフェースとして扱うだろう。重要なのは、誰がそれらを制御し、誰が利益を得るか、そして行動がどのように制約されるかだ」
今後の道
不透明な自動化はすでにその限界を示している。お金を素早く動かすことはできるが、物事が壊れたときに自分自身を説明するのに苦労する。
資金配分者が求め始めているのは異なるものだ:原則として、すべての決定経路を再構築でき、結果がブラックボックスの即興ではなくポリシー制約に明確に結びついているシステムだ。そのような世界では、問題はエージェントがどれだけ「賢い」かではなく、その判断がどれだけ監査可能かになる。
デジタル金融の過去10年がコードが価値を清算し決済できることを証明することについてだったとすれば、次の10年はコードが信頼を獲得できるかどうかについてかもしれない。インテリジェンスと資本の両方が少数の手に集中する市場では、本当の破壊は速い実行ではなく、機械の行動を理解可能にし、集中に挑戦できるインフラかもしれない。
開かれた問いは、誰が最初に動くかだ。規制当局が自律型システムに説明責任を強制するのか、それとも開発者が求められる前に説明責任を設計するのか?



