AI

2026.03.04 14:48

自己構築するAI、検証インフラなき進化の危うさ

Robert - stock.adobe.com

Robert - stock.adobe.com

2月5日、OpenAIはGPT-5.3 Codexを公開した。その技術文書に埋もれるように記されていた開示は、受けた注目よりはるかに大きな注目に値する。OpenAIによれば、このモデルは「自らの創造において重要な役割を果たした」。Codexチームは初期版を用いて、自身のトレーニングのデバッグ、デプロイの管理、評価の診断を行ったという。30分後、AnthropicはClaude Opus 4.6をリリースした。同社で最も高性能なコーディングモデルである。同じ朝、2つのフロンティアAIシステムが公開された。いずれも人間の監督なしに数時間から数日、自律的に動作するよう設計されており、そしていずれも12カ月前には広く展開されていなかった能力を体現している。

能力曲線:多くの人が思う以上に急である

研究者たちが長年、論文で理論化してきた自己改善ループは、もはや遠い仮説ではない。AnthropicのCEOであるダリオ・アモデイは、AIが同社の「コードの多く」を書いていると公言しており、現世代モデルと次世代モデルの間のフィードバックループが月ごとに勢いを増しているとも述べている。彼は、現世代のAIが次世代を自律的に構築する地点まで、業界は1〜2年しか離れていない可能性があると見積もる。OpenAI自身の文書は、そのプロセスがすでに始まっていることを示唆している。「GPT-5.3-Codexは、自らを作り出すうえで重要な役割を果たした当社初のモデルである」。この傾向が続くなら、現在の公表情報に基づけば、数日単位で独立して作業できるAIシステムは年内に実現しても不思議ではない。

安全性研究者が退職しながら警鐘を鳴らしている

このスピードに最も警戒しているのが誰かは注目に値する。2月の最初の2週間だけでも、Anthropicでセーフガード研究チームを率いていたムリナンク・シャルマが、「世界は危機に瀕している」と警告する公開書簡とともに辞任した。安全性の優先事項を脇に置くよう、組織から常時圧力がかかっていたことを理由に挙げている。ほぼ同時期に、OpenAIの研究者がニューヨーク・タイムズにエッセイを掲載し、ChatGPTを操作のエンジンと描写した。またOpenAIは7人からなるミッション・アラインメントチームをひそかに解散し、xAIの共同創業者2人が退社し、さらにOpenAIの安全性担当幹部が解雇された。十分な保護措置がないまま機能を立ち上げることへの異議を唱えた後のことだ。

これらのニュースを総合すれば、パターンは1つの研究所に限られない。Anthropicもまた、設立の目的だったはずの緊張関係に直面している。同社がClaude Opus 4.6に関して公表した最新の安全性レポートは、「有害な悪用に対する感受性の高まり」を指摘した。同社は同時に、報道によれば3500億ドルの評価額を目指している。商業的圧力と安全上の要請は逆方向に引っ張り合っており、現時点では、必ずしも同じ速度ではないにせよ、両者は並走しているように見える。

自律型エージェントは増殖しているが、検証インフラは整っていない

こうした背景のもと、自律型AIエージェントは驚くべき速さで増殖している。ピーター・シュタインベルガーが開発したオープンソースのパーソナルAIエージェント「OpenClaw」は、1月下旬にバイラル化した後、72時間でGitHubスターを6万以上集めた。成功を受け、シュタインベルガーは2月14日にOpenAIへ加わり、サム・アルトマンはその技術を「当社のプロダクト提供の中核」と表現した。

ブロックチェーンの側では、Ethereum(イーサリアム)のERC-8004標準が1月下旬にメインネットで稼働し、AIエージェント向けの分散型のID、レピュテーション、検証インフラとして初の枠組みを確立した。すでに2万1000以上のエージェントが登録している。Ethereum Foundation(イーサリアム財団)の分散型AIチームは、2026年ロードマップの中心にERC-8004を据え、公表されたロードマップ資料によれば、AIの協調における決済レイヤーとしてEthereumを明確に位置付けている。

これらのエージェントは互いを見つけ、条件を交渉し、取引を実行し、人間の介入なしにレピュテーション履歴を構築する。マッキンゼーは、エージェント経済が2030年までに4兆ドルに達し得ると見積もった。だが、エージェントが実際に何をしたのか、タスクを正しく実行したのか、出力を信頼できるのか、生み出すデータが真正なものか──それを検証するためのインフラは、依然として大部分が未整備のままである。

ディープフェイクに敗れる:起こり得ることの予告編

検証インフラなしで運用するコストは、すでに測定可能になっている。米国におけるディープフェイクを利用した詐欺は、2025年に11億ドルに達した。前年の3億6000万ドルから3倍である。さらにデロイトの金融サービスセンターは、生成AI詐欺による損失が2027年までに400億ドル(年平均成長率32%)に達すると予測する。人間が高品質なディープフェイク動画を検出できるのはわずか24.5%にすぎない。ガートナーは、2026年までに企業の30%が、単独の本人確認をそれだけでは信頼できないと見なすようになると予測している。検出に依存する防御は、捕捉するために設計された合成コンテンツよりも速いペースで劣勢に追い込まれている。

しかし、ディープフェイク──どれほど説得力があるとしても──は、より深い問題の可視的な表層にすぎない。ディープフェイクは偽造であり、偽造は原理的には検出できる。より構造的なリスクは、自らコードを書き、自ら後継を訓練し、複雑な多段タスクを自律的に実行するAIシステムにある。こうしたシステムで問われるのは「このコンテンツは本物か」ではなく、「この計算は、主張どおりの方法で実際に実行されたのか」である。自らのトレーニングパイプラインの完全性を証明できない自己改善モデルは、外部から連鎖を監査する仕組みがないまま、ブラックボックスが別のブラックボックスを構築していく。合成コンテンツと不透明な計算という2種類のリスクは、同じ根本的な必要性へと収束する。すなわち、誰かがシステムを盲信したり、全作業を再実行したりすることなく、そのプロセスが主張どおりの出力を生み出したことを示す数学的証明である。

インターネットはかつてこの問題を解いた:歴史はどう繰り返すのか

1994年、eコマースは未解決の問題によって凍結されていた。オープンなネットワーク上で機密情報を安全だと保証しながら送信する方法がなかったのである。オンライン取引の技術は存在し、消費者需要も存在した(しかも明確だった)。だが欠けていたのは、事前に関係のない当事者同士の間でも信頼を証明可能にする検証レイヤーだった。SSLがそのレイヤーを提供し、以後20年で6兆ドル規模のeコマース産業が続いた。

AI経済はいま、構造的に同一の変曲点にある。能力はここにあり、需要もここにある。だが、計算が正しく実行されたこと、文書が特定のシステムによって生成されたこと、エージェントのIDが検証されたことを、基礎データを開示せず、単一の仲介者を信じる必要もなく、数学的に証明するインフラが存在しない。

ゼロ知識証明:AIに必要な暗号レイヤー

ゼロ知識証明は、この目的に最も成熟した暗号技術の1つである。ゼロ知識証明は、ある当事者が「命題が真である」ことを、その真実性以外の情報を一切明かさずに示すことを可能にする。実務上は、計算を再実行せずに正しく実行されたことを証明する、個人データを露出させずに本人確認が行われたことを確認する、AIモデルの出力が主張どおりの学習・推論プロセスと整合していることを(専有的な重みを開示せずに)検証する、といったことを意味する。数学自体は1980年代から存在するが、変わったのはコストだ。証明生成に伴う計算オーバーヘッドが低下し、自律型AIシステムが求める速度と規模で動作できる水準に達しつつある。

残るボトルネックは性能であり、ここで証明システムのアーキテクチャが決定的に重要となる。ゼロ知識仮想マシン(zkVM)は、任意のプログラム実行について暗号学的証明を生成できる汎用の実行環境である。アプリケーションごとにカスタム回路を設計する必要はなく、zkVMなら馴染みのある言語で書かれたプログラムを対応する命令セットへコンパイルし、自動的に正しさを証明できる。要するに、標準的な計算を「検証可能な計算」へと変換しつつ、回路の複雑性の多くを抽象化する。

従来のゼロ知識仮想マシンは命令を逐次的に処理する。プロバー(証明生成者)は計算のあらゆるステップにコミットしなければならず、現実のAIプロセスに特有の複雑で多段なワークロードに対して、過大なオーバーヘッドを生む。

一方で、私が共同創業に関わったプロジェクトであるScrollのCeno zkVMは、根本的に異なるアプローチを取る。オペコードを順不同で証明することで逐次処理の制約を取り除き、分岐のないプログラム区間を動的な命令トレースではなく静的回路として扱う。これにより、プロバーがコミットすべき演算の数を減らし得る。このアーキテクチャは一般化されたGKRプロトコルに基づいており、プロバーは中間のウィットネス(証明用の中間情報)すべてではなく、各回路の入力と出力のみにコミットするため、証明生成をさらに圧縮できる。実務上、これはCenoが機微なデータを取り込み、それに対して計算を実行し、その結果と「計算が正しく実行された」というコンパクトな数学的証明のみを返せることを意味する。基礎データは発生源に留めたままでよい。AIの検証という観点では、このアーキテクチャはゼロ知識機械学習(zkML)と呼ばれることもあるもの、すなわちモデルの出力が主張どおりの学習・推論プロセスと整合していることを暗号学的に証明する能力を可能にする。これは、規制当局がますます議論する監査可能性の類いである。

RISC Zero、Succinct、Brevisも並行するアプローチを追求している。安価で堅牢かつ高性能な解決策への需要が紛れもなく存在するなか、エコシステム全体は急速に成熟している。

信頼インフラ構築の時間は限られている

今後18カ月は、AIの信頼を支えるインフラが意図的に構築されるのか、それとも危機がそれを要求した後に後付けされるのかを決定づけるだろう。歴史は後者を示唆する。だが同時に、信頼インフラを早期に構築したエコシステム──デジタル資産におけるLEAPフレームワークの香港、ERC-8004のEthereum──が、他の誰よりも速く過大な経済価値を獲得する傾向も歴史は示している。開かれた問いは、AI計算の検証レイヤーが、計算そのものと同じ速度でスケールできるかどうかである。

より賢い機械を作る機械の時代が到来した。彼らが生み出すものを検証するインフラが欠けているなら、人類史上最も強力なシステムは、証拠なき信頼に等しい基盤の上で稼働することになる。そしてその基盤は、便利である一方で、スケールした場面で持ちこたえたことがない。

forbes.com 原文

タグ:

advertisement

ForbesBrandVoice

人気記事