彼のこの発言は、4月末の決算発表でAI投資の拡大を宣言して投資家の不安を煽り、2000億ドル(約31兆円)もの時価総額を消失させたメタの今後の計画についての洞察を与えるものだ。
ChatGPTやジェミニ、メタのLlama(ラマ)のような人気の生成AIツールの基盤となる大規模言語モデル(LLM)は、「人間のレベルのプランニングや推論に到達することはできない」とルカンはFTに語った。
このようなAIモデルは、膨大な量のデータを使って訓練されるが、正確な答えを導く能力は、「訓練されたデータの性質によって制限される」とルカンは言う。これは、これらのモデルが適切なデータで訓練された場合に限って、正しい答えを導けることを意味する。
LLMは「限られたロジックの理解」しか持たず、永続的な記憶を持たず、物理的な世界を理解せず、「階層的な計画を立てることができない」とルカンは説明し、「理にかなった推論を行えない」と付け加えた。
トロント大学のジェフリー・ヒントン教授や、モントリオール大学のヨシュア・ベンジオ教授らと並んで、「AIのゴッドファーザー」の1人とされるルカンは、LLMは適切な訓練データを与えられたときのみに正確であるため、「本質的に安全ではない」と述べ、人間と同じレベルのAIを望む研究者は他のモデルに目を向けるべきだと語った。