AI

2023.12.30

2023年の流行語「ハルシネーション」 人の健康をむしばむAIの欠陥

Getty Images

幻覚は、よくないことを引き起こす。人間が幻覚を見ると、下着をオーブンに入れるといった奇行に出るだろう。幻覚を見るのがチャットボットなどの人工知能(AI)ツールになると、誤解を招く虚偽の情報をでっちあげるおそれがある。その偽の情報の性質によっては、非常に多くの人の心身の健康に悪影響を与える可能性すらある。

AIが急激に普及した2023年、AIの幻覚である「ハルシネーション」は、非常によく見かける現象となった。辞書サイト「Dictionary.com」で、「hallucinate(幻覚を見る)」という単語に、AI関連用語としての定義が追加され、さらには、この単語が2023年の「ワード・オブ・ザ・イヤー」に選ばれたのもそれが理由だ。

Dictionary.comによると、「hallucinate」という単語が検索された回数は、2023年には前年比で46%増加し、名詞の「hallucination」の検索回数も同レベルの上昇を示した。

「chatbot」「GPT」「generative AI(生成AI)」「LLM(大規模言語モデル)」といったAI関連の単語の検索回数も、前年比で62%増えたという。ここから推察すると、「hallucinate」の検索回数が増加したのは、人間が幻覚を見る行為を指す従来の定義というよりは、AI関連用語としての以下の定義がDictionary.comに掲載されていることによるものと考えられる。

hallucinate[動詞](人工知能について)ユーザーの意図と反する誤った情報を生成し、なおかつ、それが真実かつ事実に基づいているかのように提示すること。用例:チャットボットがハルシネーションを起こすと、その結果として得られる回答は、不正確なだけでなく、完全に捏造されたものであることも多い。

そう、AIも人間と同じようにうそをつくことがあるのだ。もちろん、すべてのAIがうそつきというわけではない。だが、AIツールを政治的煽動者や、インチキ商品を売るセールスマンになるようにプログラムし、すべて事実に基づいているように見せかけながら誤った情報を生成することは可能だ。
次ページ > 65分間で誤情報だらけの記事102本を生成

翻訳=長谷 睦/ガリレオ

タグ:

ForbesBrandVoice

人気記事