ビデオコールには当該の「CFO」のみならず、担当社員自身が顔見知りである同僚たちが同席していたことも、彼が送金に及ぶ確信につながった。「彼ら」同僚らも、フェイク画像と音声によるなりすましだったことはいうまでもない。
AIによる恐ろしいディープフェイクはどこまで「進化」する可能性があるのか、またAIによるフェイクから身を守るために打てる手とは何か。以下、米国メディア「Techopedia」の記事を翻訳転載で紹介する。
正解率2%! 恐るべきディープフェイクの実態
AIの音声技術が進化するにつれて、われわれはイノベーションとセキュリティ、現実主義と懐疑心のバランスを取る必要に迫られている。自分は絶対に騙されないと思っている? もしそうであるなら、本稿で紹介する調査結果が、あなたの考えを変えるかもしれない。
人工知能(AI)の音声技術の進歩により、本当にそれらしいディープフェイクが作成できるようになった。ディープフェイクを利用すれば、大切な人の声を真似て危険な状況を演出することや、偽の誘拐を行うなど、不穏な場面で利用される可能性もある。この新たな状況を乗り切るためには、AIの音声クローン詐欺の範囲と影響を理解することが不可欠だ。
クライアントの通話履歴やテキストメッセージ、eメールなどのコミュニケーション履歴を集約できるクラウド・インタフェースのを提供するリングオーバーが最近行った調査では、AIが驚くほど正確に人間の声を模倣する能力が浮き彫りになった。この調査には1000人以上が参加し、有名な著名人の声を、本物とAIが生成したものと区別する能力が試された。
この調査はAI音声技術の隠れた危険性を浮き彫りにし、セキュリティ、信憑性、そして人間とAIの相互作用の将来について重要な問題を提起している。
回答者の78.3%は、AI音声と人間の声を簡単に区別できると考えていた。しかし実態は全く違っていた。すべてを正確に識別できたのはわずか2%だったのだ。
この自信と実際の能力とのギャップは、AIの進化する能力に対する我々の理解に重大な盲点があることを示している。この研究結果は、AIと現実を見分ける人間の能力を過大評価している人々に対するタイムリーな警告と言えるだろう。