今回の研究では、すべてのAI検索エンジンに共通する厄介な傾向、すなわち、回答の生成にどのようなコンテンツが使用されたかをめぐる全体的な透明性の欠如も浮き彫りになった。
「どのチャットボットも、質問に答えるにあたってアクセスできるコンテンツとアクセスできないコンテンツを明確にしていなかった。また、回答が不正確であっても、信頼できる答えであるかのように錯覚させていた」と研究者らは記している。
AI検索プロバイダーに説明を求めたが……
この調査結果の重大性を鑑み、研究者たちはAI検索ツールの提供元企業に説明を求めた。しかし、回答は散々なものだった。
「報告書で取り上げたAI企業すべてに連絡を取った。回答があったのはOpenAIとマイクロソフトだけで、問い合わせた内容については認めたものの、私たちが指摘した具体的な調査結果や懸念事項には両社とも対応してくれなかった」
これらは単なる学術的な問題ではなく、ジャーナリズムにも一般市民にとって信頼できる情報へのアクセスにも現実的な影響を及ぼしている。AIが生成する要約は、重要な文脈をそぎ落とすとともに、記事を執筆した記者名や配信元の企業名を適切に明記しない。これは収益をウェブトラフィックに頼っている報道機関に直接の打撃となりかねない。
「リンクやクレジットなしでコンテンツを再パッケージする生成AIツールは、配信元へのトラフィックを遮断し、その認知度と収益に影響する」と研究者らは述べた。
経済的な影響以外にも、AIツールが引用を捏造したり不正確な属性を付与したりすれば、記事の内容そのものの信頼性が大きく脅かされる。ユーザーが出典を確認できなかったり、AI検索エンジンが誤った情報を提示したりする状態では、誤情報に対処するのは難しい。
「AIツールが誤った属性を付与したり、引用を捏造したりすると、AI技術に対する信頼も、参照先のジャーナリズムに対する信頼も損なわれる。また、これらのツールは間違った回答を示していても信頼できると思われやすく、誤情報のリスクにもつながる」と2人の研究者は述べている。
AI検索を成功させるには何を変えるべきか
研究では、AI開発企業がAI検索の透明性、引用の正確性、誤った情報に対する懸念への対応を早急に改善する必要があることを強調している。適切な説明責任を伴わないAI検索エンジンは、不正確で誤解を招く情報の拡散を許し、記事やジャーナリズムの信頼性をますます損なう危険を孕んでいる。
AI企業がきちんと対応するまではユーザー側で、AIが生成した検索結果については慎重に扱い、情報源を独自に確認し、これらのツールが完璧にはほど遠いことを認識しておくべきだろう。
AI検索が信頼できる情報への入り口となるには、まずジャーナリズムの基本的なルールをAIが学習しなければならない。すなわち、事実を正しく把握し、しかるべきところにクレジットを付与するということだ。


