なぜこれほど多くの企業が、AI(人工知能)ソリューションから期待していた投資対効果を得られていないのだろうか。
これは真の難問であり、今日のビジネスリーダーたちが袋小路に陥っていると感じている状況と大いに関連がある。彼らは成功するためにAIを導入する必要があると感じているが、実際に導入してみると、うまくいかないのだ。
最もよく引用される研究の1つは、実はマサチューセッツ工科大学(MIT)によるもので、私の同僚でMITで授業も担当しているラメシュ・ラスカー氏も著者リストに名を連ねている。「The GenAI Divide: The State of AI in Business in 2025(生成AIの分断:2025年のビジネスにおけるAIの現状)」と題されたこの研究は、調査回答者の実に95%が、自社がLLM(大規模言語モデル)ツールやユースケースから投資に見合う成果を得ようとして失敗したと示唆していることを明らかにしている。
ピーター・マルフォード氏による見解がある。同氏はArtificial Intelligence and Innovation PracticeのチーフAIオフィサーで、興味深い漫画を添えてこれらの問題の一部を説明しており、AIのビジネスROIを「発見可能だが、保証されていない」と特徴づけている。私はこれが多くの点で的を射ていると感じた。
「私たちが使用するほとんどのエンタープライズ技術は予測可能に動作する」とマルフォード氏は言う。「ERP(統合基幹業務システム)を導入し、HCM(人的資本管理システム)にログオンし、『Excel』で分析を行うと、出力と結果は予測しやすい。実際、非常に簡単なので、人々は出力に疑問を持つことすらなく、ただ使用するだけだ。そのため、ROIは実行規律から生まれ、それは迅速に実現する。しかし、生成AI(GAI)は根本的に異なる」
この点について、マルフォード氏はAIが単一のアプリケーションではなく、汎用システムであることを指摘している。
「それは、あなたが最後に使用したソフトウェアよりも、電気、インターネット、クラウドコンピューティングに近い」と同氏は付け加える。「また、GAIは確率的であり、同じことを何度か実行するよう指示しても、実行するたびにわずかに異なる出力が得られる可能性がある。最後に、GAIモデルの挙動は常に変化しており、明日使用するAIは今日使用するものとは異なる動作をする可能性が高い」
その違いが、ビジネスユーザーを困惑させるのだと同氏は示唆する。これが方程式の一部なのだ。
AI導入に関する詳細
ダボスで開催されたImagination in Actionイベントで、ニーナ・グレゴリー氏がニューヨーク大学(NYU)のゲイリー・マーカス教授にこの問題とその背景について取材した。マーカス氏はドメイン固有システムの性質について言及し、企業が期待を調整する必要性について語った。(注:私はImagination in Actionと毎年のダボスイベントの運営を支援している。これは無料で、人々がAIと社会におけるその役割について議論する場だ)
「大規模言語モデルと、それらを取り巻く経済性を区別する必要がある」と同氏は述べ、一部のタイプのモデルを「ステロイドを使った自動補完」と表現し、過大な期待の危険性を指摘した。「大規模言語モデルは永遠にここに留まるだろう……そして、ブレインストーミングのような特定のことに使用できる。ある程度、コーディングにも使用できるが、研究によって時には生産性を低下させることがわかり始めている……しかし、それらを中心に構築された企業の経済性は……あまり良くない」
一部の例外は、異なるアプローチを使用していると同氏は主張した。マーカス氏はAlphafoldを挙げた。これはチャットボットではなく、タンパク質のモデルだ。それでさえ、価値を提供するためには多くの人間の介入が必要だと同氏は指摘した。
AI領域における課題
その後、グレゴリー氏はマーカス氏がニューヨーク・タイムズ紙に書いた記事から引用した。「今、ビッグテックは汎用AIのスパゲッティを壁に投げつけ、本当にひどいものが何も付着しないことを願っているように感じられる」
全般的に、2人は現在ある種の無法状態となっているものに対して規制を実現することがいかに困難かについて長時間語り合った。グレゴリー氏はチャットボットユーザーの自殺事例、ディープフェイクポルノの拡散、その他の否定的な結果について言及した。
「今、政府とビッグテックは非常に密接な関係にある」とマーカス氏は述べた。「もし社会が立ち上がって『私たちは本当にこれを望んでいない』と言い、政治家が社会によって強制されれば、確実に規制を可決できる」
同氏は自身が著書に書いた提案、「Taming Silicon Valley(シリコンバレーを飼いならす)」と呼ばれるもので、この種の改革のためのアドバイスについて言及した。
「これは私たちが本当に実行すべきものの1つだ」と同氏は述べた。「新薬を発売する際、利益がコストを上回ることを示さなければならない。大規模言語モデルではそれをする必要がない……新薬がある。それを市場に出すだけではいけない。私たちはそれに関する全体的なインフラを持っている。AIに関してはそれを持っていない。社会は『それが欲しい』と言うことができる」
この種の変化がない場合、マーカス氏は生成AIの低迷、さらには投資に対するある種のAIの冬を予測した。人々が期待の崩壊を目にするにつれて。
「生成AIが支持を失う可能性は非常に高いと思う」と同氏は述べた。「すでに反発が始まっている。経済性はうまく機能していない。市場はついにそれに注目し始めている。そのため、年末までに、AIは例えば1年前ほど権威あるものではなくなる可能性がある」
アライメントを求めて
「少なくとも、より信頼できるAIに到達したいと思う」とマーカス氏は2人がアライメントについて議論する中で述べた。「私がAIについて述べたすべての否定的なことについて、価値はあると思う。そして、私たちが正しく行えば、今は正しく行っていないと思うが、正しく行えば、それは社会にとって良いことになる。科学、医学、農業などに役立つだろう……システムに人間を傷つけないように指示したいだろう。私たちはそれらにそれに従わせる方法を知らない。おそらく、本当に超スマートなマシンが狂ったことをしないと確信できるまで、それらを構築すべきではない」
実際、この会話の部分は、LLMが文明に与える影響に関するかなり暗い見通しの文脈で行われた。私はこれらの発言を含めたい。なぜなら、それらはタイムリーだと思うからだ。
「LLMは権威主義者にとって完璧なツールだ」とマーカス氏は説明した。「それらは権威主義者が大量のデータを取得することを可能にし……そして、大量のゴミを出力しているため、すべてに対する信頼を損なう。そして、私たちは誰も何も信頼できない環境に陥る。民主主義の前提は、人々が何が起こっているかを見て、それを世界がどのように機能するかについての自分自身の理解と自分自身の価値観を通して屈折させることだ。もし誰も本当に何が起こっているかわからなくなったら、民主主義はどのように機能するのか」
同氏は「ロシアの消防ホース・プロパガンダ」モデルと、疑わしい情報で「ゾーンを氾濫させる」という考えに言及し、ニューラルネットワークがこの厄介なプロセスをどのように支援できるかを示した。
私たちは何ができるのか。
「最初にすべきことは、言葉を広めることだ」とマーカス氏は述べ、AIをその物質に関する規制公聴会以前の大手タバコ会社に例えた。「最終的には、社会が立ち上がって『いや、私たちはこれを受け入れない。あなたたちは私たちの子供たちをめちゃくちゃにしている。彼らの教育を破壊している。これらのシステムであらゆる種類の問題のあることをしている。アーティストから盗んでいる。まだ盗んでいないなら、次は私の仕事を盗むつもりだ』と言う必要がある。私たちは今、政治的意志を欠いている。必要なのは、『私たちはAIが欲しいが、このAIは欲しくない』と言う政治的意志だ」
AIの機会費用を検討する
この問題に関するマーカス氏の最後のポイントの1つは、あらゆる技術の機会費用に関するものだ。その技術は人々を引き付けるかもしれないし、魅力的かもしれないが、ユーザーは体験と引き換えに何を諦めているかについて考えていない可能性があると同氏は示唆した。
「人々はかつて1日5時間ほどテレビを見ていた」と同氏は述べた。「彼らは1日1時間見る人々よりも幸せではなかった。彼らが注意を払っていなかったのは、テレビを使用している瞬間は幸せだったとしても……他の人と話していなかったし、ギターを弾くことを学んでいなかったし、何も持ち帰るものがなかったということだ。そして、もしあなたの人生をChatGPTにアウトソーシングすれば……1日の終わりに、あなたは本当に何も学んでいない」
同氏はAIを使用する学生に関するMITの研究を引用した。
「彼らは本当に何も学んでいない」と同氏は述べた。「彼らは本当に脳を使っていないし、この問題を抱えているのは学生だけではない。物事をアウトソーシングすれば、学んでいない。そして、すべての時間をChatGPTと話すことに費やせば、一部の人々がそうしているように、実際の人間との本当の関係を築いていない」
これらは個人的な課題の一部だが、ビジネスのルールに戻ると、CEOやC-suiteの人々は何をすべきか。彼らはどのようにしてその捉えどころのないROIを得ることができるのか。
この研究やその他の研究は、それが意図的なプロセスと適切な適合性に関係していることを示している。マルフォード氏とマーカス氏の両者が示唆するように、AIが完璧であることを期待することはできない。人間のチームと協力し、適切なフィードバック、適切なターゲティングによって、実際のソリューションが現れるのを見ることができる。



