質の低いデータによるボトルネック
アルゴリズムの話ばかりが注目されるが、実際に損害をもたらしているのは、AIを支える目に見えない「配管部分」だ。「質の悪いデータが自ら名乗り出ることはめったにありません」とフローリーは熱弁する。「それは静かに作用し、信頼と価値をゆっくりと蝕んでいくのです。そして企業がそれに気づく頃には手遅れなのです」。その損害は仮説ではなく、現実的で測定可能であり、多くの場合、高くつく。
「欠陥は増幅されます。その結果、無関係なコンテンツが生成されたり、数百万ドルもの広告費を無駄にするような見当違いの広告が表示されたり、一貫性のないメッセージがブランドの混乱を招き、重要な顧客層を遠ざけたりすることになりかねないのです」。
フォースターは、具体的な数字を挙げる。「AI導入に伴う問題の60~70%は、データ基盤に起因します」と彼は語る。「しかし、データ基盤は見過ごされがちです。なぜなら目に見えず、華々しいイノベーションでもないからです。それはただ、ITとガバナンスの地道な作業に過ぎません。しかし、これがなければ、企業内のいかなるAIシステムも成果を出すことは決してありません」。
物理的制約というボトルネック
Mahoney Asset ManagementのCEOであるケン・マホニーは、見過ごされがちなもう1つのボトルネックを指摘する。それは、AIが消費するエネルギーとインフラの物理的な限界だ。「たとえ自由に使える資金がいくらあっても、実現不可能かもしれません」と彼は言う。「変圧器、電力設備、冷却装置はすべて、現時点で入手が限られています。電力会社は設備の受注残を何年分も抱えているのです。つまり、投資される準備ができている資金が潤沢にあっても、電力や設備、データセンターを何もないところから作り出すことはできないということです」。
断片化された、あるいは不正確なデータというボトルネック
多くの企業リーダーはAIが思考できると聞かされており、中にはそれを完全に信じている者もいるが、現実にはほとんどのAIシステムは、いまだに人間のように文脈やニュアンスを理解できない。これはマーカスがしばしば指摘してきた問題であり、企業がLLMの構築にどれだけ資金を注ぎ込んでも、すぐには解決しない問題だ。
フローリーによれば、明確な戦略とクリーンなデータがなければ、AIモデルは自信を持って間違った行動を促すという。「断片化された、あるいは不正確なデータ上でAIを展開することは、自滅行為です」と彼はいう。「それは既存の欠陥を増幅させ、分析の質を低下させ、誤った情報に基づく意思決定に誤った自信を与えるでしょう」。
フォースターは個人的な例を挙げた。「お気に入りのホテルで、いつもの部屋、スパガーデンを見下ろす138号室を予約しようとしたのです。しかし、コールセンターのAIは、私たちが常連客であることも、その部屋が私たちの好みであることも認識しませんでした。私はかなりいら立ちました。この問題は、人間の担当者が介入してAIを停止させて初めて解決したのです」。AI主導のシステムでは、こうした小さなミスが顧客の信頼が失われるところまで、急速かつ静かに拡大していく。
同様のリスクは、より複雑な導入にも当てはまる。「生成AI、特に自律的に行動するエージェントAIは、増幅器として機能します」とフローリーは言う。「クリーンでよく構造化されたデータがあれば、進歩を加速させることができます。しかし、断片化された、あるいは不正確なデータを用いると、エラーやバイアスを高速で増幅させ、自律的に行動を実行し、問題が検知される前にビジネスをさらに誤った方向へと推し進めてしまうのです」。


