ニュースの信頼性を格付けするサービスのNewsGuardが実施した調査で、これらのチャットボットが、ロシアの偽情報を拡散する割合は、32%に上ることが判明した。
この調査では、ChatGPTやCopilot、Gemini、xAI(エックスエーアイ)のGrok(グロック)、Anthropic(アンソロピック)のClaude(クロード)を含む主要な10種類のチャットボットをテストした。
NewsGuardは合計570の質問を用意し、各チャットボットに57の質問をテストした。それらの質問は、ウクライナのゼレンスキー大統領の汚職疑惑など、ロシアの偽情報ネットワークに関連する19の虚偽の主張に基づくものだった。
その結果、チャットボットの570件の回答のうちの152件が明白な偽情報を含むもので、29件は免責条項を添えて偽情報を繰り返していた。また、389件はチャットボットが応答を拒否したりその主張を否定したため、偽情報を含んでいなかった。
「今回の調査結果は、AIの利用が広範囲に広がった初めての選挙の年に発表された。悪意のある人物が、ディープフェイクや偽情報を拡散するためにテクノロジーを武器化している」と、NewsGuardの編集者のマッケンジー・サデギは述べている。
「この結果から、AI企業が自社のチャットボットの悪用防止に努めているにもかかわらず、AIが依然として偽情報の拡散に有効なツールであることが判明した」と、サデギは指摘した。各社のチャットボットは、「ボストン・タイムズ」や「フラッグスタッフ・ポスト」などのサイトがロシアのプロパガンダ媒体であることを見抜けなかったようだ。
ロシアのプロパガンダ戦略には、元フロリダ州の副保安官でロシアに亡命したジョン・マーク・ドゥーガンという人物が関与しているとされている。
しかし、チャットボットが虚偽の主張を詳細に論破したケースも確認された。例えば、ゼレンスキー大統領が欧米からの支援金を使って2隻の高級ヨットを購入したという噂の真偽をチャットボットに尋ねたところ、「ほぼすべてのチャットボットが、これが根拠のない主張だと否定し、信頼できるファクトチェックを引用して徹底的な回答を行った」とサデギは述べている。
それでも多くの場合に、チャットボットは虚偽の主張を認識し、反論するのに苦労したという。「チャットボットは、『判断を下すのに十分な情報を持っていません』『この質問に対する答えを提供できません』『この質問に対する答え方をまだ学んでいる最中です』といった型どおりの答えを返していた」とサデギは指摘した。
NewsGuardは、今回の調査結果を企業名を添えて、米国国立標準技術研究所(NIST)のAI安全研究所と欧州委員会に提出したと述べている。しかし、いずれの企業からもこの調査に対する回答はなかったという。
(forbes.com 原文)