ブルームバーグ・ローによると、訴えは「アームド・アメリカ・ラジオ」というラジオ番組の司会者を務めるマーク・ウォルターズがジョージア州の裁判所に起こした。係争中の実際の訴訟について知ろうとしたジャーナリストに、チャットGPTが偽の告訴状などを作成して回答したと主張している。
実際の訴訟は、銃を保有する権利の擁護団体「セカンド・アメンドメント財団」がワシントン州のボブ・ファーガソン司法長官に対して起こしたもので、ウォルターズは関わっていない。
ところが、ジャーナリストからこの訴訟について尋ねられたチャットGPTは、ウォルターズがセカンド・アメンドメント財団から「資金をだまし取り、不法に自分のものにした」として、財団の設立者が告訴したとする訴訟をでっちあげ、それについての概要を作成して回答した。
ウォルターズはこの財団で働いたこともないという。
問題の回答は、チャットGPTのような生成AIで比較的頻繁に起きるハルシネーションの結果と考えられる。ハルシネーションは、完全に誤った情報を言語モデルがなんの警告もせずに生成する現象で、それ以外の箇所は正確なこともある。一見して事実のように思える内容や、インチキな引用や出典が添えられたりするため、読み手が納得してしまう恐れがある。
チャットGPTのメインページでは、AIが不正確な情報を生成したり、有害な指示や偏見のあるコンテンツを生み出したりする場合があるの警告文が掲載されている。
AIのハルシネーションをめぐっては、オンライン上の偽情報問題に拍車をかけるおそれがあると一部の専門家が警鐘を鳴らしてきた。オープンAIもGoogle(グーグル)をはじめとする競合他社も、ハルシネーションをめぐる懸念を認めている。
オープンAIは3月に最新の言語学習モデル「GPT-4」を発表した際、以前のモデルと同樣の制約を抱えていると述べ、ハルシネーションなどを例に「まだ完全に信頼できるものではない」と注意を促していた。その後、ハルシネーションに対処する新たなAIトレーニング方法に取り組む考えも明らかにしている。
5月には、ニューヨーク州の弁護士が、人身傷害に関する訴訟の資料をチャットGPTで作成し、裁判所に提出して問題になった。作成された資料には、実在しない判例が複数含まれていた。
(forbes.com 原文)