AI

2023.12.30 11:00

2023年の流行語「ハルシネーション」 人の健康をむしばむAIの欠陥

Getty Images


人間との違いは、AIがこうした誤情報や偽情報を、人をはるかに上回るスピードで生成できる点にある。例えば、11月に学術誌JAMA Internal Medicineに掲載された論文によると、OpenAIの「GPT Playground」(GPTを手軽に試すことができるウェブベースのインターフェース)は、ワクチンやベーピング(たばこなどを電蒸気を利用して吸引する方法)に関連する1万7000語以上の偽情報を含むブログ記事102本を、わずか65分間で執筆できたという。
advertisement

さらに研究チームは、追加の生成AIツールを使い、ブログ記事に添付する20枚のリアルな画像を2分未満で作成できた。そう、もはや人間は、うそをつき誤った情報を広める行為を独占できないのだ。

故意に人を騙そうとする意図がなかったとしても、さまざまなAIツールが不作為に誤解を招く情報を生成することはあり得る。12月上旬に開催された米国病院薬剤師会(ASHP)のミッドイヤー臨床薬学会議では、ロングアイランド大学薬学部の研究チームが、ChatGPTを用いて、治療薬に関連する39件の質問に回答させた結果について発表を行なった。その回答結果は、おおむね不正確と判定された。満足がいく回答と言えるものは、39件のうち10件しかなかったという。

ひどい回答の例を挙げると、新型コロナウイルス感染症の経口治療薬「パキロビッド」と、不整脈などの治療薬であるベラパミルについて、ChatGPTは飲み合わせ(相互作用)の問題はまったくないと回答したが、これは誤りだ。実際には、この2つの薬を併用すると、血圧が危険なレベルにまで低下するおそれがある。ここからわかるように、AIツールに医療に関する質問をするのは多く場合、門外漢の人物に医療に関する助言を求めるようなものだ。
advertisement

当然ながらAIは、医療関連の質問だけでなく、あらゆる事柄に関してハルシネーションを起こす可能性がある。AIツールが、まったく別のタイプの画像を読み取るよう命じられたのに、誤ってあちこちに鳥がいると認識するような事例がいくつも報告されている。
次ページ > AIのハルシネーションは人の健康をむしばむ

翻訳=長谷 睦/ガリレオ

タグ:

advertisement

ForbesBrandVoice

人気記事