経営・戦略

2025.12.08 14:21

「もしかしたら」に投資できる企業がAIで勝つ

Adobe Stock

Adobe Stock

サイラム・スンダレサン、AIエンジニアリングリーダー、ブルームズベリー著者&教育者。

advertisement

AIに携わる人なら、財務部門にニーズを説明するのに苦労しているだろう。CFOとの包み隠さない会話を想像してみよう:「失敗するかもしれない実験に、指数関数的に拡大するリソースを使って、解決できるかどうかわからない問題に取り組み、結果を保証できず、常に高額なメンテナンスと時折の完全な再構築が必要なシステムのための予算が必要です」

CFOがこれを理解できないからといって、非合理的(あるいは頑固、あるいはラッダイト)なわけではない。彼らは資本配分について学んできたあらゆる原則を破る技術に直面しているのだ。従来のソフトウェアには予測可能な経済性がある:開発者3人+2ヶ月=新機能。完了。しかし、AIの経済学はベンチャーキャピタルに似ている:不確実な結果に対する高額な賭けであり、何かが機能するかどうかを知る唯一の方法は、まずお金を使うことだ。

CFOはベンチャーキャピタルの仕組みを知っている。VCは10の賭けをして、8つが失敗し、1つが収支トントン、1つがファンド全体のリターンをもたらすと予想していることを知っている。彼らは勝者を事前に予測できないことを知っている(Airbnbがエアマットレスを貸すという酷いアイデアに見えたこと、Uberが単なる違法タクシー会社だったこと)。彼らが知らないのは、AI開発がベンチャーキャピタルだということだ。それがAIリーダーが彼らに理解させる必要があることだ。

advertisement

少なくとも3つの要素がVCの経済学を特異なものにしている:

1. 慎重な計画によって投資リスクを軽減することはできない。デューデリジェンスは明らかな失敗を排除できるだけで、成功を予測することはできない。

2. うまくいっているものに倍増するための準備資金が必要だが、何がうまくいっているかは数ヶ月または数年後までわからない。

3. 何かが「安全」になる頃には、チャンスはすでに消えている。そのため、最大のリターンは、当時は狂気じみて見える賭けから生まれる。

これらの各ポイントはAI開発にも当てはまる。どのモデルアーキテクチャが特定の問題を解決できるかは、試してみるまでわからない。画期的なパフォーマンスは、うまくいくまでは愚かに見える非自明なアプローチから生まれることが多い。70%と95%の精度の差—おもちゃと革新的なものの差—は、10倍の投資を必要とするかもしれない。最も重要なのは、競争優位性は既知のプレイブックを実行することからではなく、他者が発見していないものを発見することから生まれるということだ。何かがうまくいくことを誰もが知っているなら、そのチャンスはすでに消えている。

CFOが理解するのに苦労する別のこと:モデルドリフトという現象。成功したAIシステムは、設計通りに機能し続けているにもかかわらず、時間とともに悪化する。従来のソフトウェアはハンマーのようなもので、1日目も1000日目も同じように効果的だ。AIは歴史的データで訓練された天気予報モデルに似ている:気候が変わるまでは信じられないほど正確だが、その後は自信を持って間違える。再び正確にするには高価な再トレーニングが必要だ—それはシステムが壊れたからではなく、周囲の世界が変化したからだ。

完全に機能しているサービスチャットボットが50万ドルのリフレッシュを必要とする理由を財務部門に説明するのは難しいかもしれない:

「でも、まだ動いているんでしょう?」とCFOは言う。

「はい」とあなたは言う、「でも—」

「壊れてないの?」

「技術的にはそうですが、でも—」

「じゃあなぜ修理するの?」

このような会話が起こるのは、AIリーダーがAIシステムが工房にある静的なツールではなく、動的なデジタルエコシステムの中で生きているものであることを説明する語彙を持っていないからだ。

しかし、本当にCFOの頭を混乱させるのは、AI開発の最も残酷な皮肉だ:AIシステムは成功すればするほど、運用コストが高くなる。パイロットチャットボットが100件の顧客クエリを見事に処理する。成功だ!そして今、1万人の顧客がそれを使いたがっている。これらの顧客は同じ100のクエリを繰り返すわけではない。代わりに、モデルが見たことのない1万の新しいエッジケースを導入する。新しいユースケースごとに、より多くの計算能力、より多くのトレーニングデータ、より多くの人間の監視、そしてより多くのお金が必要になる。これは、満足した顧客が増えるごとに運営コストが高くなるレストランを開くようなものだ。なぜなら、新しい客は完全にカスタマイズされた食事を望むからだ。

CFOがこのパターンを警戒するのは間違っていない。馴染みのある技術投資では、成功が効率を促進する。しかしAIでは、成功が複雑さを促進する。従来のスケーリング経済学—ボリュームに伴うユニットコストの減少—は単純に当てはまらない。

では、AIが実際とは異なるものだと偽ることなく、理解のギャップを埋めるにはどうすればよいだろうか?

成功指標を納品だけでなく学習を中心に再構築する。「Q3までにチャットボットを提供する」ではなく、「Q3までに私たちのユースケースで革新的な顧客サービス自動化が可能かどうかを判断する」とする。この枠組みは、成功指標を構築することから発見することへとシフトさせる。何かがうまくいかないことを証明する「失敗した」実験は、無駄になる可能性のある数百万ドルの投資を成功裏に回避する。

不確実性の削減に関連するトランシェで予算を組む。最初の50万ドル:技術的実現可能性を証明できるか?次の200万ドル:実世界のエッジケースを処理できるか?次の1000万ドル:スケールできるか?各トランシェは次のトランシェを正当化する情報を購入する。CFOはオプションチェーンを理解している—これはオプションチェーン思考をAIに適用するだけだ。

技術的指標ではなく、ビジネスへの影響を定義する。精度率は忘れよう。新しいパターンを捉える70%の精度の不正検出システムは、既知の不正だけを捉える95%の精度のシステムよりも価値があるかもしれない。重要なのは:節約されたコスト、生み出された収益、削減されたリスク、獲得された競争優位性だ。しかし、どの指標が最も重要かは、途中まで進むまでわからないかもしれないことを受け入れよう。

「何もしない」コストを明示する。競合他社が最初にこれを解決した場合に何が起こるかを計算する。時にはリスクを取らないことが最もリスクの高い行動になることがある。CFOは、明確に枠組みを設定すれば、機会費用の計算に優れている。「500万ドルを使って失敗するかもしれないか、あるいは他社が成功したときに5000万ドルの市場シェアを失うか」

失敗が許容されるが成功が価値あるところから始める。最初からミッションクリティカルなシステムにAIを賭けないこと。部分的な解決策でもROIがある高価な問題を見つける。小さな勝利を通じて組織の信頼を構築しながら、大きな賭けのオプションを維持する。

AIで勝利する企業は、競合他社よりも長く「もしかしたら」にお金を投じられる企業だ。AI開発において不確実性を排除できる組織は存在しない。彼らができるのは、不確実性を麻痺させるのではなく生産的にする構造を作ることだけだ:明確な学習目標、段階的な投資、そして彼らが本当に何を買っているのかについての容赦ない正直さ。「もしかしたら」の経済学では、確実性を要求することだけが保証された失敗だ。

forbes.com 原文

タグ:

advertisement

ForbesBrandVoice

人気記事