Close RECOMMEND

Photo by Rasit Aydogan/Anadolu Agency/Getty Images

10万4852人の女性が自身の画像を無断でメッセージアプリ「テレグラム」にアップロードされ、ヌード画像の生成に使用される被害に遭っているとした報告書が20日、情報収集・分析企業のセンシティにより発表された。

センシティは、人工知能(AI)を利用して生成される「ディープフェイク」と呼ばれる精巧な偽の画像・動画を専門とする企業。同社によると、こうしたフェイクヌード画像は、テレグラム上に展開された一連のボットによって生成されている。

ユーザーはこのボットにリクエストを送ることで、フェイクヌード画像を作成できる。生成されるヌード画像の大半は、ユーザーがソーシャルメディアから取得した知人女性の画像を基にしたもので、生成後はテレグラム上の他のチャンネルで共有・取引されているという。

同社が調査したテレグラム上の関連チャンネルは世界で計10万1080人のメンバーが利用し、うち7割がロシアや東欧諸国のユーザーだった。ディープフェイクのヌード画像では有名人がターゲットとなることが多いが、このボットの被害者の7割は一般人で、中には未成年とみられる人も少数いた。

センシティのジョルジオ・パトリニ最高経営責任者(CEO)はフォーブスに対し、有名人のディープフェイク動画生成には複数の画像や動画が必要となる一方で、「このテクノロジーを利用するのに必要なのは画像1枚のみで、チャットルームにアップロードするだけでよい」と説明。「ソーシャルメディアに写真を1枚でも公開したことがある人は標的になる可能性がある」と指摘している。

編集=遠藤宗生

PICK UP

あなたにおすすめ