あなたが毎月ChatGPTを利用する5億5000万人(!)の1人なら、苛立たしく――そして危険でもある――癖の1つ、すなわちハルシネーション(幻覚)を起こしやすい傾向をおそらく知っているはずだ。
たとえば昨日の体験をお話ししよう。筆者は、テック界隈で話題になっているAIの生産性に関する分析を要約し、報告書から主要な数値と引用をいくつか抜き出すようChatGPTに依頼した。返ってきた答えはいつも通り、権威ある口ぶりで、洗練され、プロフェッショナルだった。
ただし小さな問題があった。すべて作り話だったのだ。統計は捏造、引用は実在しなかった。要約自体は的確だったが、ほかの誤りに気づいたため、念のため報告書全体をざっと読み直す羽目になり、時間を無駄にした。
ChatGPTのようなLLM(大規模言語モデル)は、世界の動き方を一変させた。しかし、企業が機微な業務でAIへの依存を強めるにつれ、こうしたハルシネーションは有害で、ときに壊滅的な結果を招きうる。10月には、コンサルティング会社のデロイトが、AIによる誤りや捏造に満ちた237ページの報告書をオーストラリア政府に提出し、大きな失態を晒した。評判は最悪である。
リーダーはAIの巨大な可能性を把握するのと同じくらい、その危険も認識しておくべきだ。以下では、ハルシネーションがなぜ起きるのか、そしてそれが事業の足を引っ張らないようにするにはどうすべきかを述べる。
ハルシネーションとは何か
LLMの物言いは人間のように聞こえることがあり、ユーザーの質問に答える際の口調は確かに自信満々だ。しかし当然ながら、LLMは人間ではない。大量のデータに基づき、もっともらしい応答を予測するためのシステムにすぎない。そして答えがないときは、推測で穴を埋めようとする。
LLM自身は真偽を見分けられないため、事実に反する情報――いわゆるハルシネーション――は驚くほど頻繁に起きる。興味深いことに、これらのシステムが強力になるにつれて、誤情報を吐き出す可能性はむしろ高まっている。ニューヨーク・タイムズは、一部の新しいAIシステムでは79%もの頻度でハルシネーションが起きると報じている。ベクターラの最高経営責任者で元グーグル幹部のアムル・アワダラは同紙に対し、「最善を尽くしても、彼らは常にハルシネーションを起こします。それは決してなくなりません」と述べている。
問題は言うまでもなく、この傾向がLLMを信頼しにくいものにしている点である。以前から繰り返し述べているが、AIは常に人間の監督の下で運用すべきだ。ChatGPTのようなツールは人々の仕事を楽にしてくれるが、「任せきりにして放置してよい」類いのシステムではない。とはいえ、問題を緩和するために取れる手立てはいくつかある。



