「グーグルも、アップルのように対応する必要がある。彼らは、画像による性的虐待の拡散を防ぐための責任あるポリシーを作り、それを実践しなければならない」とルーセイは述べた。
AIが生成するディープフェイクポルノも急増している。全米行方不明・被搾取児童センター(NCMEC)は先日、AIが生成した児童性的虐待のコンテンツ(CSAM)に関する報告件数が昨年1年間だけで5000件に達したことを明らかにした。今年初めには、ウィスコンシン州の男性が、画像生成AIモデルのStable Diffusion 1.5を搭載した画像ジェネレーターを使用してCSAMを生成した疑いで起訴された。
有罪判決を受けた児童精神科医のケースでは、高校時代のガールフレンド以外の被害者たちも、幼少期の写真からAIを用いてヌード画像を生成されたことによるトラウマ体験について法廷で証言している。
「彼がインターネット上で私の幼少期の画像を入手して児童ポルノを作成したことで、私の同僚や家族、または他の小児性愛者がそれらの画像にアクセスすることを恐れている。彼のせいでAIが怖くなり、AIについて見聞きすると、彼のことが脳裏をよぎる」と、被害者の一人は語った。
(forbes.com 原文)