経営・戦略

2026.03.05 15:14

AI投資はなぜ失敗するのか 95%が成果を出せない本当の理由

stock.adobe.com

stock.adobe.com

企業はかつてないほどAIに投資しているが、期待したほどのリターンを得られていない。

ガートナーの調査によれば、変革的な価値をもたらすAI投資は50件に1件にすぎず、測定可能な投資対効果(ROI)を生むのは5件に1件にとどまる。300件超の公開済みAI導入事例を分析し、153人のシニアリーダーに調査したMITメディアラボの「Project NANDA」は、「GenAI Divide: State of AI in Business 2025」レポートにおいて、企業のAIパイロットの95%が測定可能な損益(P&L)への影響をもたらさず、統合されたシステムのうち大きな価値を生み出したのは5%にすぎないと報告している。一方BCGによれば、企業は2026年にAI支出を倍増させる準備を進めており、売上高に対する平均比率は0.8%から1.7%へと増える見通しだ。

リーダーが投じる額と得られるリターンのギャップには、ガートナーのフレームワークで呼び名がある。「幻滅の谷」だ。しかし「幻滅」と呼ぶと、問題が感情的なものだと示唆してしまう。エビデンスが示すのは、より構造的な要因——多くの組織が、名指しすらできておらず、まして解決できていない「リーダーシップの説明責任ギャップ」である。

誰が意思決定をしているのか

2026年1月に発表されたBCGの調査によれば、現在ではCEOの4分の3が自社におけるAIの主要な意思決定者である。カンファレンス・ボードの「2026 C-Suite Outlook Survey」も、AIが企業戦略の周縁から中心へと急速に移ったことを確認している。AIはCEOにより、投資の最優先事項であると同時に、主要な外部リスクであり、ガバナンス上の懸念でもあると位置づけられている。

CEOが承認する内容を評価するためのフレームワークを持っていれば、このようなトップへの権限集中は適切だろう。だが、多くはそうではない。ガートナーの調査では、AI投資のリターンに満足しているCEOは30%未満だったにもかかわらず、支出は加速し続けている。プロジェクト開始前に成功の姿を定義できず、失敗が到来してもそれを識別できないリーダーのもとでは、説明責任が着地する場所がなくなる。

その結果、業界をまたいで同じパターンが繰り返される。AI施策は承認され、導入され、そして期待を下回ると、明確なオーナーも、事後検証も、次の投資に向けた評価基準の見直しもないまま、静かに棚上げされるのである。

ガバナンスの欠落

問題はAIが機能しないことではない。多くの文脈で、AIは極めてうまく機能する。問題は、AI導入が本質的にはリーダーシップとガバナンスの意思決定であるにもかかわらず、多くの組織がそれをテクノロジーの意思決定として扱ってきた点にある。

ハーバード大学継続教育部門によると、ハーバードの責任あるAIガバナンスのフレームワークでは、説明責任が基盤要件として位置づけられている。すなわち、重要なAIの意思決定にはすべて、その結果を説明し、調整し、責任を負うことができる事業オーナーを明確に指定しなければならない。

カンファレンス・ボードの調査では、CEOがAIを最優先の投資対象としながら同時にAIガバナンスを懸念事項として挙げている。この矛盾は、迅速に進めることと監督を維持することの緊張関係を、いかに少数しか解消できていないかを示す。AI実装のスピードと範囲に関する意思決定が、部門の壁の中で行われており、部門横断の説明責任や、定義された成功指標を欠いたままである。

21カ国の3700人のシニアリーダーを調査したKyndrylの「2025 Readiness Report」によれば、組織の62%はAIプロジェクトをパイロット段階から先へ進められていない。多額の投資をしながらも、運用規模に達していないのである。

説明責任が実際に求めるもの

AIから測定可能なリターンを引き出している組織には、共通する規律がある。導入後ではなく導入前に、何を測るかを定義している点だ。

AIのROIをベンチマークした初期の事例として広く引用されるものの一つでは、Ally Financialが2023年に報告し、マーケターがキャンペーン制作時間を平均34%削減したという。これは、組織が生産性のベースラインを設定し、それに対して測定したことで初めて可能になった数値である。こうした具体性は例外にすぎない。MITのProject NANDAによれば、多くの企業はAI投資の財務リターンを測定する段階にすら到達していない。つまり、進むべき方向を示すフィードバック信号が存在しない。何が機能し、何が機能していないのかを見分けられないのである。

リーダーシップレベルで効果的なAIガバナンスを実現するには、現状では多くの組織に欠けている4つの要素が必要だ。

  • 導入前に成功基準を定義すること。すべてのAI施策には、事前に測定可能な成果を設定すべきである。「効率を改善せよ」といった曖昧な指示ではなく、支出と同じ予算サイクル内で評価できる、具体的で期限を切った改善幅を求めるべきだ。
  • 重要なAIの意思決定ごとに、事業オーナーを指定すること。テクノロジーチームは構築と導入ができる。しかし、AIが組織目標の達成を前進させたかどうかの説明責任は、プラットフォームではなく事業リーダーに帰属する。
  • 構造化された評価サイクルを設けること。最初の6カ月を正式なレビューなしで乗り切ったAI施策は、漂流しがちである。リソースを消費し続ける一方で、リターンは逓減していく。明確な継続/停止基準を伴う四半期レビューは官僚的な摩擦ではない。リーダーが、自ら承認したものをコントロール下に置き続けるための方法である。
  • 失敗の報告が当然とされる文化をつくること。ガートナーの調査は、AIのROIデータが乏しい理由の一つとして、組織がそれを抑え込んでいる可能性を示唆している。失敗を含むAIの実績について、正直な報告が評価されるというシグナルを発するリーダーは、そうでないリーダーよりも良い情報を受け取り、良い意思決定を行う。

人間という変数

ROIデータの背後には、より深いリーダーシップの問いがある。

AIが測定可能な価値を生み出している組織には、良いガバナンスの枠組み以上のものがある。AI導入はテクノロジーの課題であるのと同じくらい、人間のチェンジマネジメントの課題だと理解するリーダーがいる。目的が理解されず、意思決定の仕組みが信頼されず、共に働くための訓練も受けていない職場にAIを投入すれば、データが示す通りの失敗率を生むことになる。

デロイトの「2024 Human Capital Trends Report」によれば、AIをめぐる信頼の構築にリーダーが積極的に取り組む組織は、より高い便益と、よりバランスの取れた統合の成果を実現している。信頼はここではソフトな変数ではない。パフォーマンスの変数である。

BCGの調査で2026年にAI予算を倍増すると答えたCEOは、投資すること自体が誤りなのではない。AIの可能性は現実であり、競争圧力も現実である。そして、それを効果的に導入する方法を見いだした組織は、真の優位性を得るだろう。だが、成果を生む投資とは、「勝ち」をどう定義するかを明確にし、そこへ至るための説明責任を割り当て、うまくいかなかった場合にも正直な報告が可能となる条件を整える経営陣によって主導される投資である。

AIに多く支出することは戦略ではない。何を買っているのか、誰がそれを所有し、うまくいったかどうかをどう判断するのか——それこそが戦略である。

forbes.com 原文

タグ:

advertisement

ForbesBrandVoice

人気記事