大規模言語モデル(LLM)を乗り越え、新たな物語を描く時期に来ている。ここ数年で登場したばかりのLLMと生成AIが引き起こした数々の「つまずき」は、私たちが信じ込まされてきた「社会を変革する知能」への道ではないことを示す証拠だ。LLMの歩みは、達成された重要なマイルストーンよりも停滞や後退の方が目立ってきた。それも、数十億ドル(数千億円)の投資が集中してきたフロンティア系テック企業の間で。
期待外れに終わった最新の推論モデル、いまや一般的なミームと化したAIのハルシネーション、そしてフロンティアモデルに対する無数の著作権訴訟──これらがこの技術を表している出来事だ。正義を掲げる擁護者たちは歩調を合わせ、画像生成ツールからアーティストの権利を守るソリューションを構築している。それにもかかわらず、私たちのフィードに遍在する粗悪なAI生成コンテンツ(AIスロップ)は、人間の独創性を欠いた成果物を生み出し、その過程でこれまで価値があった職業を置き換えている。これは偽物が蔓延する恐れを増幅させるだけでなく、雇用喪失への絶え間ない不安や、劣化する職場文化を裏付けている。忘れてはならないのは、チャットボットの台頭が最も脆弱な人々を食い物にし、AIによる精神的錯乱(AIサイコーシス)を誘発して、現実からさらに遠ざけていることだ。最後に、企業によるAIモデルの需要が減退している兆しもある。
投資家は、LLMと「人間の知能を超える」という約束から手を引き始めているのだろうか。
私たちは何を見落としているのか。おそらく、LLMを乗り越え、代替策を前面に出す時だ。LLMだけでは到底切り開けない経路とは何か。
知能の定義
2018年、ジェフリー・ヒントンは、人間の意思決定を模倣するためのディープラーニングの開発において、規制当局がAIシステムの意思決定に説明を義務付けるのは「完全な災難」だと主張した。人間自身が自分の意思決定プロセスを完全には説明できないからだ。彼は次のように述べた。「人は、自分が行うほとんどのことについて、自分がどう機能しているのか説明できません。誰かを採用するとき、決定は数量化できないあらゆる要素、そして直感に基づいています。人は自分がどうやってそれをやっているのか分かっていないのです。説明を求めれば、物語をでっち上げさせることになります」。
認知科学に立ち返るべき
ニューヨーク大学名誉教授のギャリー・マーカスは、認知科学者で『The Algebraic Mind』と『Rebooting AI』の著者であり、主流のLLMに対する著名な批判者だ。彼はニューヨーク・タイムズへの最新の寄稿でこう述べた。「GPT-5は前進ではあるものの、多くの人が期待していたAI革命にはほど遠いものです。これは、この技術に大きな賭けをした企業や投資家にとっては悪いニュースです」。
時代は変わった。彼によれば、2019年にLLMとその基盤であるディープラーニングへの業界の偏重を批判し始めた当時、他の選択肢を考える者はほとんどいなかった。ヒントンが説明責任の必要性を退ける議論に対し、マーカスはこう述べる。「彼は先日、その変形版のような議論をし、ノーベル賞委員会が実際にそれをリツイートしました。恥ずべきことです。少し違う議論ではあるものの構造は似ていました。つまり、人間も幻覚するのだから、LLMが幻覚するのも人間と同じで問題ない、という調子です」。
マーカスは、AIの目標が人間の知能を複製することだという考えを退け、次のように述べる。「人間は依然として、機械が得意ではない多くのことをこなしています。たとえば新しいスキルの習得や抽象的な概念による推論などです。私たちの思考には流動性と柔軟性がありますが、AIにはそれが欠けています。人間から学ぶことでAIがより良く機能する可能性は十分にありますが、それはレプリカを作るという意味ではありません」。
彼はさらに説明する。「AIの初期には、人々は認知科学を真剣に受け止めていました。しかしここ数年で、AIの分野は人間の認知にそれほど重きを置かない統計的学習を行う人々に支配されるようになりました。分野のリーダーたちは、限られた手法群以外のほとんどを軽視してきたのです。そして、スケーリングすればAGIに到達できるという仮説で進んできました。しかし、そうはなりませんでした。だから、認知科学が教えてくれることに立ち返るべきなのです」。



