トラウマにつながる過酷な業務
児童の性的虐待のコンテンツを追放しようと奮闘しているのは、TikTokだけではない。SNSの大手は、長い間、機械学習とサードパーティの人間のレビュアーを使って、そうしたコンテンツをキャッチして削除しており、多くの企業は行方不明になったり搾取されたりしている児童を支援する団体の「National Center for Missing & Exploited Children(NCMEC)」と協力し、問題のある画像を法執行機関に通報している。
しかし、TikTokとその外部コンサルタントがこの素材を扱う方法は独特で、専門家によれば、よく言えば手際が悪くて軽率で、悪く言えば有害でトラウマを再形成するものだという。また、広くアクセス可能な文書に画像を保存することは、無謀で不必要なことです。
TikTokの広報担当者Jamie Favazzaは、同社のトレーニング素材が「厳格なアクセス制御を行っており、CSAMの視覚的な例を含んでいない」と述べながらも、独自のプロセスを持つ可能性のあるサードパーティ企業と連携していることを認めた。TikTokの親会社のバイトダンスは、フォーブスからの度重なるコメント要請に応じなかった。
児童ポルノの取り扱い
児童虐待や搾取の画像は違法であり、発見された場合の取り扱いには厳しい規則がある。発見された画像は直ちに削除され、NCMECに報告されなければならない。企業はNCMECに報告すると、当局を助けるために90日間その資料を保持することが法律で認められている。しかし連邦法では、企業はそのコンテンツに「アクセスできる従業員の数を最小限にする」こと、「資料を安全な場所に保管する」こと、「法執行機関の要請に応じて、そうした視覚的描写を永久に破壊することを保証する」ことを明確に義務づけられている。
TikTokのFavazzaは、「我々は業界のベストプラクティスに沿ってモデレーターへの露出を最小限にすることを目指している」と述べた。TikTokがTeleperformanceに児童虐待資料の取り扱いに関するガイドラインを提供したかどうかを尋ねると、Teleperformanceは回答しなかった。同社のTrust & SafetyのリーダーであるPugaliaは、同社がどこで事業を行うにせよ、適用される法律に従っているとだけ述べた。
ジョージタウン大学プライバシー・テクノロジーセンターのデビッド・ブラデック教授は、企業が従業員や請負業者に違法な投稿を認識するよう教育することは重要だが、そのためにプラットフォームからスクレイピングしたコンテンツを使用するべきではないと述べた。
連邦取引委員会(FTC)の消費者保護局の元局長であるブラデックは、「何がOKで何がNGなのかをスタッフが区別できるような教育ツールを考えること自体は難しいことではない。しかし、実際の事例を使い、それを新入社員に見せるのは、無責任としか言いようがない」と話した。