今月初めにオーストラリアの当局者にこの事件を説明した連邦捜査官によると、2023年半ばに逮捕されたジャスティン・カルモ容疑者は、ディズニー・ワールドと少なくとも1つの中学校で撮影した画像を、人工知能(AI)ツールのStable Diffusion(ステーブル・ディフュージョン)で加工し、数千枚の違法画像を作成していたという。
カルモは、自身の2人の娘に対する虐待や未成年者を密かに撮影し、ダークウェブ上で児童性的虐待のコンテンツ(CSAM)を配布したことを含む児童性的搾取の容疑により、フロリダ州で起訴された。カルモは昨年、無罪を主張しており、10月に陪審員裁判が開かれる予定だ。
「これはプライバシーの重大な侵害というだけでなく、子供たちの安全を脅かす攻撃だ」と、元国土安全保障省の捜査官のジム・コールは述べている。25年にわたり児童の虐待の調査担当者を務めた彼は、カルモ被告のオンライン上の行動を追跡してきたという。
カルモの行為は、生成AIがもつ画像の生成能力を悪用した例としては、恐らくこれまでで最も気味の悪いものと言える。彼は、ディズニー・ワールドの来場者の多くを標的にした可能性があるが、ディズニーは、この件について法執行機関からの連絡を受けていないと述べている。
コールによると、カルモは世界の法執行機関の間ではよく知られた小児性愛者で、当局は2012年から彼を追跡していたという。この事件を担当した刑事は、顔認識テクノロジーを使って被害者の一人を特定し、加工された画像を辿って容疑者のカルモを割り出した。
この事件を含め、AIが実在の子どもの写真をリアルな性的搾取画像に変換するために使用されるケースが増えている。司法省は今年8月、セス・ヘレラという名の米陸軍兵士が生成AIツールを使って児童の性的画像を作成したことに対する告訴状を公開した。また、今年初めにウィスコンシン州のスティーブン・アンデレッグという名の男は、インスタグラムで募集した子供の画像から、CSAMを生成したとして告発された。
小児性愛者が最も利用するツール
コールによると、ステーブル・ディフュージョンにはセーフガードが組み込まれておらず、生成した違法画像をAIプロバイダーのサーバーに保存して検知されるリスクがないため、小児性愛者が最もよく使う生成AIツールになっているという。コールは、テック企業や非営利団体による児童保護を支援するコンサルタント会社Onemi-Global Solutionsを設立し、同社のパートナーを務めている。児童の性的搾取を担当する匿名の連邦捜査官によると、AIを使って実在の児童の性的画像を作成した場合は、通常のCSAMと同等の罪に問われる可能性が高いという。また、AIがゼロから違法画像を生成した場合は、米国のわいせつ物取締法で告発されるかもしれない。
「このようなコンテンツは基本的に、非常にリアルな絵と同じように扱われる」とその捜査官は語った。児童ポルノアニメは、米国において長年に渡って起訴の対象となっており、司法省は、AIで生成されたあらゆる違法なコンテンツに強硬な態度を取る構えだ。
「司法省は、そのような犯罪行為を法の及ぶ限り起訴していく」と、同省のリサ・モナコ副司法長官は述べている。
(forbes.com 原文)