テクノロジー

2024.12.09 18:30

スマホを狙う「生成AIを利用した詐欺」増加 アナログだが有効な対抗策をFBI推奨

Shutterstock.com

ステフニッソンは、元交際相手が偽写真で噂を広めるといった個人的レベルの嫌がらせから、政府が政治的な偽情報を拡散し、国民全体を誘導するような極端な事例まで起こり得ると指摘している。つまり、今後、私たちはあらゆる画像や動画に対し「これは本物なのか?」と問い続ける必要があるわけだ。

「電話を切り、合言葉を決める」

スマートフォンを悪用するAI詐欺のリスクを軽減するため、FBIは以下の対策を推奨している。

・かかってきた電話はいったん切り、相手の正当性をオンラインで検索し、見つかった正式な番号にかけ直すなどして身元を確認すること
・家族や知人同士で、緊急時に本人確認できる「合言葉」や「フレーズ」を決めておくこと
・オンラインや電話上だけで知り合った相手に、決して機密情報(銀行口座情報や個人情報など)を渡さないこと

「揺らして見抜く」──スマートフォン上のディープフェイクを判定する新手法

シンガポールのナンヤン工科大学のジシン・シエとジュン・ルオは、技術研究論文「Shaking the Fake: Detecting Deepfake Videos in Real Time via Active Probes(『シェイキング・ザ・フェイク』:能動的な振動を用いたリアルタイムディープフェイク動画検知)」で、スマートフォン動画がAI生成かどうかを判定する「SFake」というシステムを提案している。

「SFakeはディープフェイクモデルが物理的干渉に適応できない点を革新的に利用します。スマートフォンに振動を与えるプローブを送信し、その振動パターンと顔領域の整合性に基づいて、顔がディープフェイクで差し替えられたかどうかを判定するのです」と研究者ら述べている。
次ページ > ディープフェイク検出機能を搭載したHonorの最新スマホ

翻訳=酒匂寛

タグ:

ForbesBrandVoice

人気記事