AI

2024.05.16 16:45

AIの珍回答を減らせ 「ハルシネーション」自動判定システム

リリースベース(松村)
1001

Getty image

ChatGPTなどの大規模言語モデル(LLM)に質問をすると、現実にはあり得ない回答をすることがよくある。それを鵜呑みにした学生が珍レポートを提出して教授に怒られるという程度なら笑い話で済むが、企業や行政がもっともらしい誤回答を信じてしまっては大変だ。そうした誤回答を自動判定するシステムが登場した。

LLMの珍回答は「ハルシネーション」(幻想)と呼ばれ、AI開発における大きな課題となっている。AIサービスの開発提供を行うオルツは、独自LLM「LHTM-OPT」の開発を通じて得られた知見から「ハルシネーション自動評価システム」を開発した。同社のLHTM-OPTのほか、GPT-3.5やLlama2などのLLMのハルシネーション発生確率を判定できる。

同社提供の動画では、サザエさんに登場するタラちゃんの父親は誰かとの質問を使って検証しているが、OpenAIのGPT-3.5は「磯野波平」と答えた。これは誰もが間違いとわかる例だが、実際の利用現場では真実か否かの判断が難しい内容もある。そこで自動評価システムは、13回ほど回答の検証をさせる。「波平」という回答は13回ともすべて誤りだと判定され、ハルシネーションスコアは100と出た。つまり、ほぼ信用できないということだ。ちなみに、GPT-4で同じ質問をしたところ、「マスオさん」と正しい回答があり、ハルシネーションスコアは大きく下がった。

ハルシネーションの原因はさまざまだが、大きく分けて、イントリンジック(内因性)とエクストリンジック(外因性)がある。内因性は、学習データにもとづき事実とは異なる情報を生成してしまう場合であり、外因性は、学習データに存在しない情報を生成してしまう場合だ。本来LLMの目的は、ある言葉に続く確率が高い言葉をつなげていき、もっともらしい文章を生成することであり、正しい情報を提供することではない。つまり、現状ではLLMの言うことをつねに疑って利用する必要があるわけで、こうしたツールが大いに頼りになる。

「ハルシネーション自動評価システム」は、AI技術とブロックチェーン技術で個人の生産性を高めるオルトの業務用AIシステム「alt Developer」の一機能として実装されるAPIで、誰もが気軽に使えるサービスというわけではないが、その考え方は大いに参考になる。とにかく、LLMは疑ってかかれということだ。


プレスリリース

文 = 金井哲夫

タグ:

ForbesBrandVoice

人気記事