AI

2025.12.25 17:53

AIが変える「信頼」の概念

stock.adobe.com

stock.adobe.com

私は最近、ディープフェイクの潜在的影響について執筆した。

その中で「これらの偽造は、もはや静止画だけではない。今日のAIで生成された顔は自然にまばたきをする。実在の人物のように呼吸する。わずか数秒の音声からクローンされた声で話す。ビデオ通話に登場する。本物のように聞こえるボイスメールを残す。世界中に拡散するニュース記事に登場する。ファクトチェッカーが間に合うことすらない」と指摘した。

完璧な偽造が簡単に作れるようになると、信頼はもはや個々のコンテンツに対するものではなく、システム、関係性、実績に関する問題となる。

そのメカニズムは単純だ:AIが十分に説得力のあるものを何でも作り出せるなら、人々に残された唯一の安定した手がかりは、見聞きしているものの背後にいる存在だけである。

これは理論上の話ではない。実際、AIの普及が進むにつれて、AIへの信頼は低下している。「買い手注意」という言葉は、特にソーシャルメディアで配信されるコンテンツを含め、オンライン上のあらゆる情報を見る際に念頭に置くべきだろう。

2025年に実施されたメルボルン・ビジネス・スクールによる47カ国4万8000人を対象とした世界的調査によると、66%の人々が定期的にAIを使用しているにもかかわらず、AIを信頼する意思があるのは半数以下だという。これをChatGPTが登場する直前の2022年後半のデータと比較すると、当時の方が信頼度は明らかに高かった。この傾向は明確だ:AIシステムへの接触が増えるほど、人々はより懐疑的になっている。

問題の規模

同じ調査によると、66%の人々がAIの出力の正確性を評価せずに依存しており、56%がAIが原因で仕事上のミスを犯したと報告している。米国に限れば、全労働者の半数が雇用主が許可しているかどうかを知らずにAIツールを使用していると認めている。さらに44%が職場でAIを不適切に使用していることを認識しており、53%がAIが生成したコンテンツを自分のものとして提示している。これらの数字は、理論上ではなく、形成途上の信頼危機を示している。

テクノロジーが欺瞞を産業化したのだ。

ディープフェイクは現在、最小限のコストで任意の声、顔、設定を大規模に模倣できる。これらはすでに政治指導者になりすまし、有権者を操作し、評判を破壊するために使用されている。しかし、その被害は個々の事件よりも深刻だ。ディープフェイクに関する研究では、学者たちが「嘘つきの配当」と呼ぶ現象が記録されている(この概念を知らなかったが、今は完全に理解できる)。これは悪意ある行為者が本物の証拠を「偽物だ」と主張して退けることを指す。この効果は社会を全面的な皮肉主義へと押しやり、何でも偽造される可能性があるため、何も確定的に証明できない状況を生み出す。

AIは情報やコンテンツ作成において大きな進歩をもたらしたが、同時に、常に消費するデータとの意識的な相互作用においてAI生成コンテンツへの懐疑心が必要な時代をもたらした。

残念ながら、AIに対するこの新たなレベルの懐疑主義は標準になりつつある。人々は日常的に遭遇するAIの偽造やディープフェイクに対処するため、この新たなプレッシャーの下で、仕事、学習、買い物、遊びの方法を調整する必要がある。

forbes.com 原文

タグ:

advertisement

ForbesBrandVoice

人気記事