世界を代表するチャットボットは、これまでにない量の問い合わせを処理している。しかし、その一方で回答の精度は劇的に低下している。オンラインニュースのファクトチェックを手がける「NewsGuard(ニュースガード)」の調査によれば、2025年8月時点で主要な生成AIツールが誤情報を提供する確率は35%に達し、2024年の18%から大幅に増加した。
調査では、チャットボットの検索利用が拡大する中、AIの構造的な弱点が浮き彫りとなった。その背景には、低品質なコンテンツや偽ニュース、虚偽広告が氾濫するインターネット空間を主要な情報源としている実態がある。
「本来であれば、モデルは答えられる範囲や学習データの鮮度を明示したり、デリケートな話題への言及を控えるべきところだが、実際には汚染されたオンライン環境から情報を取得している。その結果、信頼性があるかのように見えても、不正確な回答が生成されている」と、ニュースガードの広報担当、マッケンジー・サデギは指摘する。
AIチャットボットの応答性は向上も、正確性は低下
この変化は、AIシステムの運用が根本から揺らいでいることを示唆している。調査によると、以前は特定の質問に答えなかった大規模言語モデルが、今では信頼性の低い情報源に頼って誤った回答をすることが増え、正確なニュースを見分ける力も低下している。
昨年の調査では、AIモデルは時事問題に関する問い合わせの31%を回答拒否していたのに対し、2025年8月時点での拒否率は0%だった。この変化は、調査対象のモデルが答えられない質問も含め、あらゆるクエリに応答しようとする傾向が強まった結果、より断定的に不正確な情報を提供するようになったことを示している。
トップクラスから最下位へ転落したAIモデル
昨年のトップパフォーマーの一つであった「Perplexity(パープレキシティ)」は、今年の調査で最もパフォーマンスが低下した。同モデルは、ニュースガードが2024年に実施したファクトチェックでは100%の精度を誇ったが、2025年の調査で正確に回答できたのはわずか半数にとどまった。
サデギによれば、原因は明確ではないという。「(掲示板型ソーシャルメディア)Reddit(レディット)上のパープレキシティに関するフォーラムには、信頼性の低下を訴える書き込みが相次いでいる。ブログプラットフォーム「Medium」に2025年9月初旬に投稿されたコラムで、テックアナリストのデリック・デイヴィッドはパープレキシティが影響力のあるパワーユーザーを失ったこと、ユーザーのサブスクリプション疲れ、バンドル契約によるユーザー数の水増し、そして激化する競争環境を要因として挙げている。しかし、これらがモデルの信頼性低下に直接影響したかどうかは判断が難しい」と彼女は指摘する。
調査によるとパープレキシティは、ウクライナのゼレンスキー大統領が10億ドル(約1470億円)の不動産を保有しているとする記事を情報源として挙げたが、その記事はファクトチェックによって捏造と判定されていた。パープレキシティは、記事の誤りを指摘するファクトチェック情報も示していたものの、それを権威ある情報として強調せず、その他の情報と同列に提示したため、ユーザーに誤解を与える結果となった。
サデギは、この事例がAIによる情報検索の課題の一端であると指摘する。「チャットボットは、依然としてプロパガンダと信頼できる情報を同等に扱う傾向が見られる」と彼女は言う。



