AIが急激に普及した2023年、AIの幻覚である「ハルシネーション」は、非常によく見かける現象となった。辞書サイト「Dictionary.com」で、「hallucinate(幻覚を見る)」という単語に、AI関連用語としての定義が追加され、さらには、この単語が2023年の「ワード・オブ・ザ・イヤー」に選ばれたのもそれが理由だ。
Dictionary.comによると、「hallucinate」という単語が検索された回数は、2023年には前年比で46%増加し、名詞の「hallucination」の検索回数も同レベルの上昇を示した。
「chatbot」「GPT」「generative AI(生成AI)」「LLM(大規模言語モデル)」といったAI関連の単語の検索回数も、前年比で62%増えたという。ここから推察すると、「hallucinate」の検索回数が増加したのは、人間が幻覚を見る行為を指す従来の定義というよりは、AI関連用語としての以下の定義がDictionary.comに掲載されていることによるものと考えられる。
hallucinate[動詞](人工知能について)ユーザーの意図と反する誤った情報を生成し、なおかつ、それが真実かつ事実に基づいているかのように提示すること。用例:チャットボットがハルシネーションを起こすと、その結果として得られる回答は、不正確なだけでなく、完全に捏造されたものであることも多い。
そう、AIも人間と同じようにうそをつくことがあるのだ。もちろん、すべてのAIがうそつきというわけではない。だが、AIツールを政治的煽動者や、インチキ商品を売るセールスマンになるようにプログラムし、すべて事実に基づいているように見せかけながら誤った情報を生成することは可能だ。