この分野で過去最大規模の研究によると、主要なAIアシスタントはすべて、言語や地域を問わず、日常的にニュースコンテンツを誤って伝えているという。
ロイター研究所のデジタルニュースレポート2025によると、オンラインニュース消費者の7%がニュース取得にAIアシスタントを利用しており、25歳未満では15%に上昇している。
しかし、欧州放送連合(EBU)が調整し、BBCが主導した新たな国際研究によると、主要なAIアシスタントはすべて定期的に利用者を誤った方向に導いているという。
研究者たちは、ChatGPT、Copilot、Gemini、Perplexityからの3000以上の回答を、正確性、情報源の明示、意見と事実の区別、文脈の提供などの重要基準に照らして評価した。
その結果、AIの回答の45%に少なくとも1つの重大な問題があることが判明した。10件中3件以上で情報源に関する深刻な問題—情報源の欠落、誤解を招く情報源、または不正確な帰属—が見られ、5件に1件は捏造された詳細や古い情報など、重大な正確性の問題を含んでいた。また、14%は十分な文脈を提供できていなかった。
Geminiは最も成績が悪く、回答の76%に重大な問題があり、これは他のアシスタントの2倍以上だった。これは主に、主張の誤った帰属など、情報源の扱いが貧弱なことが原因であり、特に主張自体が不正確である場合に懸念される。
「私たちはAIとそれが視聴者にさらなる価値をもたらす可能性に期待しています。しかし、人々は自分が読み、見て、聞くものを信頼できなければなりません」とBBCの生成AI担当プログラムディレクター、ピーター・アーチャー氏は述べた。
「いくつかの改善はあるものの、これらのアシスタントにはまだ重大な問題があることは明らかです。私たちはこれらのツールが成功することを望んでおり、視聴者と社会全体のためにAI企業と協力する用意があります」
しかし、アシスタントは質の高い回答ができるかどうかにかかわらず、質問に喜んで答えている。3,113件のコアおよびカスタム質問全体のデータセットで、
拒否されたのはわずか17件、つまり0.5%にすぎなかった—これは2月のBBCの以前の調査の3%よりもさらに少ない。
懸念すべきことに、BBCの別の報告書では、英国の成人の3分の1強がAIによる情報の正確な要約を完全に信頼しており、35歳未満ではその割合が約半数に上ることが判明した。
「これらの調査結果は大きな懸念を引き起こします。多くの人々はAIによるニュースコンテンツの要約が正確であると思い込んでいますが、実際はそうではありません。また、エラーを見つけた場合、それがAIアシスタントの問題であっても、AI開発者だけでなくニュース提供者も非難しています」と研究者たちは述べた。
研究チームは「AIアシスタントにおけるニュース完全性ツールキット」を公開し、報告書で明らかになった問題への解決策開発を支援することを目指している。一方、EBUとそのメンバーは、情報の完全性、デジタルサービス、メディアの多元性に関する既存の法律の執行をより厳格にするよう、EUおよび各国の規制当局に働きかけている。
彼らは、AIの開発速度が速いことを考えると、AIアシスタントの継続的な独立監視が不可欠であると強調している。
「この研究は、これらの欠陥が孤立した事例ではないことを決定的に示しています。これらは体系的で、国境を越え、多言語にわたる問題であり、公共の信頼を危険にさらすと私たちは考えています」とEBUのメディア担当ディレクター兼副事務局長のジャン・フィリップ・デ・テンダー氏は述べた。
「人々が何を信頼すべきかわからなくなると、結局何も信頼しなくなり、それが民主的な参加を妨げる可能性があります」



