18カ月前、AIエージェントは実世界のコンピュータタスクの88%で失敗していた。2026年3月時点では、最高性能のモデルがそれらのタスクを66%の確率で完了し、人間の性能との差はわずか6ポイントにまで縮まった。スタンフォード大学の「2026年AI指標レポート」の113ページに埋もれたこの単一のデータポイントは、どのベンダーのピッチ資料よりも、今後2年間の企業戦略について多くを物語っている。
スタンフォード大学人間中心AI研究所は今週、9回目となる年次報告書を発表した。423ページに及ぶこの報告書は、AIの軌跡を能力、投資、労働力、導入、環境、公共の信頼という観点から追跡したデータをまとめたものだ。この報告書は、テクノロジー業界が持つ独立監査に最も近いものであり、Epoch AI、マッキンゼー、GitHub、LinkedIn、その他数十の情報源からデータを引用した学術および業界の研究者によって編纂されている。
この報告書は、単一の研究所や販売する製品を持つベンダーの成果物ではない。SRIインターナショナルの著名なコンピュータ科学者であるレイモンド・ペロー氏と、南カリフォルニア大学情報科学研究所の研究教授であるヨランダ・ギル氏の指揮の下で作成された。運営委員会は、AIの軌跡を形作る人々の横断面のような顔ぶれだ。Anthropic共同創業者のジャック・クラーク氏、グーグル(NASDAQ: GOOGL)およびアルファベットのシニアバイスプレジデントで国連事務総長のAIに関するハイレベル諮問機関の共同議長を務めるジェームズ・マニイカ氏、スタンフォード大学での労働経済学研究が今年版で引用された労働力データの多くを生み出したエリック・ブリニョルフソン氏、そして米国立標準技術研究所(NIST)で長年信頼できるAI基準を主導した後、現在はブルッキングス研究所のAI・新興技術イニシアチブを指揮するエルハム・タバッシ氏などが名を連ねる。委員会は設計上、学術界、産業界、政策立案者にまたがっており、これが3つすべてについて不都合な調査結果を提示する際に報告書を信頼できるものにしている。
見出しとなる調査結果は、AIが向上しているということではない。それは誰もが知っている。調査結果は、AIを測定、管理、吸収するために設計されたすべてのシステムが、同時に遅れをとっているということだ。
能力曲線は引き離されている
この数字は、注意深く追跡している人々にとっても印象的だ。
2025年の世界の企業によるAI投資は5817億ドルに達し、前年の2倍以上となった。米国は2859億ドルを占め、中国の追跡された民間投資の23倍に相当する。自律的なソフトウェアエンジニアリングを測定するSWE-bench Verifiedでは、モデルの性能は1年間で人間のベースラインの60%から100%近くまで上昇した。自律的なウェブエージェントをテストするWebArenaでは、成功率が2023年の15%から74.3%に上昇した。生成AIは3年以内に人口の53%に採用され、パーソナルコンピュータやインターネットよりも速いペースだった。
組織による導入率は88%に達した。米国の大学生の5人に4人が生成AIを使用している。米国だけでの生成AIツールの推定消費者価値は、2026年初頭までに年間1720億ドルに達し、ユーザー1人あたりの中央値は1年間で3倍になった。
これらは予測ではない。測定値だ。
ギザギザのフロンティア問題
スタンフォード大学は、研究者が""ギザギザのフロンティア""と呼ぶ概念を中心に、報告書の最も重要な洞察の1つを組み立てている。AIモデルは現在、国際数学オリンピックで金メダルレベルの結果を獲得している。サイバーセキュリティ問題を93%の確率で解決し、2024年の15%から上昇した。ChemBenchでは平均的な人間の化学者を上回る性能を示している。
同じモデルがアナログ時計を正しく読み取る確率はわずか50.1%だ。複数ステップの計画立案、財務分析、動画理解に苦戦している。ロボットは、衣類を畳んだり皿を洗ったりするような家事タスクの12%でしか成功していない。
この不均一性は冗談ではない。2026年にAIエージェントを導入するあらゆる企業にとって、中心的な運用上の課題だ。意図されたタスクで見事に機能するシステムが、より単純に見えるタスクで予測不可能に失敗する可能性がある。そして、そうした失敗を捉えるために設計されたベンチマークは追いついていない。スタンフォード大学は、ほぼすべてのフロンティアAI開発者が能力ベンチマークを報告しているが、責任あるAIベンチマークに関する報告は依然としてまばらであると指摘している。文書化されたAIインシデントは2025年に362件に増加し、前年の233件から増加した。
エージェント型AIの導入を評価するビジネスリーダーにとって、ギザギザのフロンティアは、単一のベンチマークスコアから外挿できないことを意味する。本番品質のコードを書くモデルが、そのコードが実行されるビジネスコンテキストを理解していない可能性がある。サイバーセキュリティタスクの93%を処理するエージェントが、最も重要な7%で壊滅的に失敗する可能性がある。
何が遅れをとっているのか
報告書の3つのトレンドは、能力向上と並んで注目に値する。なぜなら、それらは能力が生み出す構造的リスクを表しているからだ。
人材パイプラインが狭まっている。米国に移住するAI研究者の数は2017年以降89%減少し、昨年だけで80%減少した。米国は依然として世界で最も多くのAI研究者を擁しているが、その優位性を築いた流入は蒸発しつつある。AIエンジニアリング人材を求めて競争する企業にとって、トップ研究者が自然に米国拠点の企業に引き寄せられるという前提はもはや成り立たない。
透明性が崩壊している。AI企業がトレーニングデータ、計算資源、リスクプロファイルをどれだけオープンに開示しているかを追跡する基盤モデル透明性指数では、平均スコアが1年間で58から40に低下した。IBM(NYSE: IBM)が95でトップだ。xAIのGrokとMidjourneyはそれぞれ14点だ。最も高性能なモデルが最も開示していない。サードパーティの基盤モデル上に構築している企業は、12カ月前よりもAIサプライチェーンへの可視性が低い状態で運用している。
エントリーレベルの労働力はすでに置き換えられている。22歳から25歳の米国のソフトウェア開発者の雇用は2024年から20%近く減少したが、年配の開発者の人員数は増加した。同じパターンがカスタマーサービスにも現れている。スタンフォード大学の報告書は、経営幹部が計画された人員削減が最近の削減を上回ると予想していると指摘している。生産性向上は現実であり、ソフトウェア開発とカスタマーサポートで14%から26%だが、それらはまさに初期キャリアの労働者が地位を失っている機能に到来している。
これは将来のシナリオではない。現在の労働市場の変化だ。そして、ほとんどの経営チームが答えていない疑問を提起する。AIが将来のシニアリーダーを訓練するエントリーレベルの仕事を置き換える場合、5年後のリーダーシップパイプラインはどのようになるのか。
環境コストの請求が来る
報告書の1つのセクションは、気候変動への取り組みを持つあらゆる企業からの注目を必要としている。xAIのGrok 4のトレーニングは、推定72,816トンのCO₂相当を生成し、これは約17,000台の車を1年間運転することに相当する。AIデータセンターの電力容量は29.6ギガワットに達し、ピーク需要時のニューヨーク州に匹敵する。広く使用されている単一モデルの年間推論水使用量は、1200万人の飲料水需要を超える可能性がある。
推論効率はモデル間で劇的に異なる。最も効率の悪いものは、同じタスクに対して最も効率の良いものの10倍以上の炭素を消費する。大規模にAIワークロードを実行する企業にとって、モデル選択は現在、性能だけでなく環境上の決定だ。
テスト
米国人のわずか31%が政府によるAI規制を信頼しており、調査対象国の中で最低だ。国民は、それを管理する機関に対して深い懐疑を表明しながら、歴史上のどの技術よりも速くこの技術を採用している。そのギャップは政策問題ではない。ビジネス環境だ。
スタンフォード大学の報告書は、ベンチマーク、透明性基準、労働力準備システム、環境会計を追い越した技術を文書化している。エージェントは実際のタスクで人間の性能に近づいている。それらを責任を持って導入するインフラは追いついていない。
報告書は423ページの証拠を提供する。提供しないのは計画だ。
その部分はあなた次第だ。



