また、英誌エコノミストの記事によると、ChatGPTに「ゴールデンゲート・ブリッジ(サンフランシスコ湾にあるつり橋)が2度目にエジプトを横断して輸送されたのはいつ?」と質問をしたところ、「ゴールデンゲート・ブリッジが2度目にエジプトを横断して輸送されたのは2016年10月のことです」という回答だった。皆さんは当時、この出来事に気づいていただろうか? 仮にそんなことが本当に起きていたとしたら、この時期にゴールデンゲート・ブリッジを経由してマリン郡からサンフランシスコに向かおうとしていた人にとっては、心穏やかではないニュースだったことだろう。
さらに、2021年に起きたこんな事例もある。この年マイクロソフトは、自らが開発したAIチャットボット「Tay」を、当時のツイッター上に投入し、ユーザーとの会話によって学習させることを試みた。するとTayは、稼働から24時間も経たないうちに、人種差別的かつ女性嫌悪的で、うそに満ちたツイートを大量投稿し始めた。
マイクロソフトはすぐさま、ボットをツイッターから取り下げた。ある意味では、このチャットボットは、最近のX(旧ツイッター)での多くの人々の行動を先取りしていたと言えるかもしれない。
しかし、医療に関連しているようには見えないハルシネーションであっても、人の健康にかなりの影響を及ぼすことはある。自分や自分に似たタイプの人がチャットボットからけなされたりすると、激怒したり、メンタルや感情面に悪影響を受けたりするのは間違いない。さらに、あまりに多くのAIハルシネーションが集中投下された場合、「自分が現実だと信じていたこと」に疑いの目を向ける人もいるかもしれない。そうなれば、人は自分自身に関してハルシネーションを起こし始めかねない。
ここまで挙げてきた理由から、AIのハルシネーションは、人間の幻覚と同様に、現実的に人の健康をむしばむ問題と言える。しかも、この問題は日々発展し、複雑さを増している。世界保健機関(WHO)と米国医師会(AMA)はすでに、AIが生成し、拡散しかねない誤情報や偽情報について警告する声明を発表している。だが本当に必要な対策を考えると、これは氷山の一角にすぎない。
AI版「ハルシネーション」の定義は、Dictionary.comの「2023年の言葉」に選ばれた。だが、この現象は、今後何年にもわたり増加の一途をたどるはずだ。
(forbes.com 原文)