AI

2025.07.29 12:00

ハルシネーション? バイアス? 間違って理解されやすいAI用語

AlexSecret / Getty Images

AlexSecret / Getty Images

会議やメール、会話でAIに関連する言葉が頻繁に使われているが、それらすべてを把握するのは難しいことがある。例えば、「ハルシネーション(幻覚)」や「ブラックボックス」、「バイアス」など、技術的に聞こえる難しげな言葉が出てくることがある。会議やメールでよく使われるこれらの用語は、理解されていないことが多いのだが、遅れを取っているように見られたくないので、誰もがその意味を尋ねることを避けたがる。本来このような状況では、好奇心を持つ文化が非常に重要となる。

だが、そのような文化がまだ十分に育っておらず、専門家に質問しづらいと感じる組織のために、先のようなAI用語が実際に何を意味するのかを説明するとしよう。

AI用語1:AIの「ハルシネーション(幻覚)」とは何か?

AIの「ハルシネーション(幻覚)」という用語は職場で最も誤解されている用語の1つだ。「ハルシネーション」あるいは「幻覚」という言葉から、AIが奇妙なものを見たり聞いたりするように思えるかもしれないが、この場合の「ハルシネーション」は別の意味を持っている。AIにおけるハルシネーションとは、AIシステムが、一見もっともらしい、信じられるように見えるが完全に誤った情報を生成することを指す。例えば、偽の引用を作り出したり、存在しない法律を作り出したり、虚構の情報源を作り上げたりすることがある。

なぜそのようなことが起こるのか? それは、ChatGPTのような生成AIモデルが、実際には事実を知っているわけではないからだ。これらのAIは、訓練データに基づいて文の中で通常次に来る単語を予測するように設計されている。そのデータが事実、誤り、口調に合った例を混ぜて含んでいる場合、AIはその混合を再現する。AIは情報が真実かどうかを確認するわけではなく、単に次に来る合理的な文を予測しているだけだ。これがハルシネーションが発生する原因だ。

職場でこれが起こると、予想以上に大きな影響を及ぼすことがある。例えば、マネージャーが賢そうに見える要約をコピー&ペーストしたものが、実際には捏造された統計を含んでいることがある。提案書が決して言われていない引用に基づいて作成されることもある。トレーニング資料に実在しない法律が引用されていることもある。このような問題は信頼の喪失、誤った決定、法的問題、さらには会社の評判の低下を引き起こす可能性がある。これらのミスを避けるためには、AIツールが生成した内容を常に確認することが重要だ。良さそうに見えるからといって、それが正しいとは限らない。

次ページ > バイアス、ブラックボックス、説明責任

翻訳=酒匂寛

タグ:

advertisement

ForbesBrandVoice

人気記事