これに対し、スタビリティAIの公共政策責任者のベン・ブルックスはフォーブスの取材に対し、「当社のプラットフォームでCSAMが確認された事例は把握していないが、必要に応じてNCMECに報告することを約束する」と述べた。
しかし、同社はまだそのプロセスに着手していないとNCMECのマクナルティは言う。「我々はスタビリティAIからの登録をまだ確認していない」
スタビリティAIのアーウィンも、これが事実であることを認め、登録していない理由を、「現時点で報告の必要があるコンテンツが存在しないため」とした。また、同社は4月に開催されるサイバーティップラインの会議に参加予定だと付け加えた。
AIによる児童ポルノの「法の抜け道」
このウィスコンシン州の事件は、人気のAIツールが違法な性的虐待コンテンツの作成に使用された一連の事件の最新のものだ。昨年11月にノースカロライナ州の男が、未成年者の性的搾取と、ウェブベースのAIツールを使ってCSAMを作成した罪で、40年の実刑判決を受けた。その1カ月前には、ケンタッキー州の男が13件のCSAM所持の罪を認めた。検察は、この男が児童の性的虐待を描いたAI画像や動画も所持していたと主張した。最近の議会の公聴会で、NCMECのシェハンは、昨年だけでAIによって生成されたCSAMについて4700件の報告を受けたと述べた。これは同団体が昨年受け取った全体で3600万件の報告のごく一部ではあるが、彼はこれが深刻な問題であると指摘し、報告数がさらに急増することを懸念した。
一方、スタンフォードインターネット観測所(SIO)の研究学者で、このテーマに関する新たな学術論文の著者であるリアーナ・プフェッフェルコルンは、架空の子どものCSAMをAIで生成した容疑者を起訴することは、従来のCSAM事件よりも難しいとも話す。実在の人物に基づかない、まったく架空の子どもの露骨な画像を所持したり生成したりすることは、法的には罪が問えないグレーゾーンにあたるかもしれないからだ。
しかし、プフェッフェルコルンは、このウィスコンシン州の事件が、そのような法の抜け道を、他の犯罪で告発することで回避するという前例になったかもしれないと話す。同様の犯罪が「AIが生成したCSAMを捜査したことがきっかけで初めて明るみに出るかもしれない」
(forbes.com 原文)