ソーシャルメディア分析会社グラフィカは最近実施した調査で、ヌード化アプリを使って加工された写真を「非同意性的画像(NCII)」と位置づけ、サービスを提供している34社を分析した。各社ウェブサイトのユニーク訪問者数は、9月だけで合わせて2400万人に上っていた。
ある企業の広告は「気になる女の子を片っ端から脱がせよう」をキャッチフレーズに掲げていた。このような「バーチャル脱衣産業」は、2022年にはほぼ存在しなかった。オープンソースのAI画像拡散モデルが利用できるようになったことで、写真加工のプロセスが簡素化され、新しいアプリやウェブサイトを立ち上げやすくなった。Reddit(レディット)やX(旧ツイッター)での紹介リンク数はこの1年間で2400%以上急増しており、著しい成長を裏づけている。
グラフィカの報告書は「これらのAIサービスに支えられた合成NCIIプロバイダーは今や本格的なオンライン産業として運営され、既存のeコマース企業と同じマーケティング戦術や収益化ツールの多くを活用している。これには主要なソーシャルメディアプラットフォームへの広告掲出、インフルエンサーマーケティング、顧客紹介制度の導入、オンライン決済技術の利用が含まれる」と記している。
被写体の同意なしにウェブ上でヌード写真が共有されるのは今に始まったことではない。2018年には、あるハッカーが女優ジェニファー・ローレンスら著名人の実際のヌード写真をインターネット上に公開したとして、禁錮8月の有罪判決を受けた。ローレンスは問題の写真へのハッキングを「性犯罪」と非難した。
今や著名人のヌード写真すら、いくつかの簡単なキー操作で作成できてしまう。そして、その画像が本物か、それとも捏造されたものなのかを見分けるのは難しいだろう。