ジャーナリストを含む複数のユーザーが、「AI Overview(AIオーバービュー)」と呼ばれる同社のAI要約が、掲示板サイトのReddit(レディット)にジョークとして書かれたポストや、事実ではない記事を引用していることを指摘した。
コンピューター科学者のメラニー・ミッチェルは、この機能がオバマ元大統領がイスラム教徒であるという右翼の陰謀論を回答として表示した例を指摘した。
他の事例では、この機能がブログからのテキストを盗用し、その内容を誤った形で伝えていることが指摘された。さらに、ニシキヘビが哺乳類であると示唆するなど、基本的な事実を間違えているものもあった。
グーグルの広報担当者はニュースサイトのVergeに対し、これらの誤りは「一般的に非常にまれなクエリで発生したもので、多くの人の経験を代表するものではない」と語った。
これらの問題が、具体的に何に起因するものなのか、どの程度広範囲に及んでいるのか、またグーグルがAI機能の展開に再びブレーキをかけざるを得ないのかどうかは不明だ。
しかし、これらの誤りはレディットのようなプラットフォームや風刺ニュースサイトのThe Onion(ジ・オニオン)などのグーグルが要約するために選択しているデータのソースに起因している可能性がある。グーグルのスンダー・ピチャイCEOは、先日のVergeのインタビューで、同社がハルシネーション(AIが事実に基づかない情報を生成する現象)の問題に取り組んでいると述べたが、解決までの正確なタイムラインは明言しなかった。
グーグルのAIが不正確な回答を導いたと批判されるのは、これで今年2回目のことだ。同社が今年初めに発表したGemini(ジェミニ)の画像生成AIは、黒人のバイキングや人種的に多様なナチス兵士、女性のローマ法王など、歴史的に不正確な画像を出力したとして、すぐに非難を浴びた。これを受けてグーグルは謝罪し、この機能を一時停止せざるを得なくなった。
(forbes.com 原文)