AI版「オレオレ詐欺」で2500万円を送金、英企業が被害

Brian A Jackson / Shutterstock

AI(人工知能)を活用した人物画像や動画の合成技術は「ディープフェイク」と呼ばれているが、よりシンプルな手法で作成可能な「声のディープフェイク」を活用した犯罪が発生した。

電話を活用した詐欺は古くからあるが、AIによる合成ボイスで詐欺犯罪が行われた事例は、恐らくこれが初めてだ。

8月30日のウォール・ストリート・ジャーナル(WSJ)の記事によると、英国本拠のエネルギー企業の匿名のCEOが、ドイツの親会社の上役の指示を電話で受けて、約24万3000ドル(約2580万円)の資金をハンガリーの取引先に送金したという。

しかし、電話の声は詐欺犯がAIで作成した偽のボイスだった。被害に遭った企業の保険を担当する「ユーラーヘルメス信用保険会社」のRüdiger Kirschは、WSJの取材に対し詳細を語った。Kirschによると、CEOは問題のボイスにドイツ訛りがあったと述べており、相手が人間であると信じ込んでいたという。

詐欺犯はKirschに、3回にわたって電話をかけたという。1回目は送金を求めるもので、2回目は支払いが誤って取り消されたという虚偽の報告だった。さらに3回目の通話で、追加の送金を求められ、発信元がオーストリアの電話番号になっていたことで、不審に感じたという。

彼は追加の送金には応じなかったが、最初の送金は既に処理済みで、ハンガリーの銀行からメキシコの銀行に移された後、さらに、別の口座に分散して送金されていた。

KirschはWSJの取材に、今回の声の偽装には商用化済みの音声加工ソフトが用いられていたと述べている。これが事実であれば、AIによる偽のボイスで詐欺犯罪が行われた初の事件ということになる。ただし、類似した事件がこれまでにも発生していた可能性は十分にある。事件の発生は、今年3月のことだった。

現時点で容疑者は特定されておらず、犯行に用いられたソフトウェアも特定されていない。しかし、この事件はマシンラーニングやAIを悪用することで、これまで見られなかった犯罪が実行可能になることの顕著な例といえそうだ。

編集=上田裕資

ForbesBrandVoice

人気記事