SNS大手のコンテンツのモデレート業務を請け負う企業Teleperformanceで働いていたNasserは、人工知能(AI)が「最悪のコンテンツ」を見分ける能力を鍛えるという特別なプロジェクトを任されていた。入社してわずか数日後、彼と同僚たちは、性的行為に及ぶ子どもたちの生々しい画像や動画、つまりTikTokから削除されたすべての素材を見せられたのだ。
2020年にTeleperformanceを退職したNasserはフォーブスの取材に、「私には娘がいるが、見ず知らずの人たちがこれを見るのはおかしいと思う。あんなものをトレーニングに使うべきではないと思う」と話した(彼の名字と、この記事中の他の人々の名前はプライバシー上の理由で省略されている)。
テキサス州エルパソにあるTeleperformanceのTikTok部門で1年以上働き、2021年に退社したホイットニー・ターナーも、トレーニングの一環として、子供の性的搾取画像を見せられた。彼女には共有スプレッドシートへのアクセス権が与えられており、そこには裸や虐待を受けている子供の画像など、TikTokのガイドラインに違反すると判断された素材が数百枚も含まれていた。
元モデレーターによると、Daily Required Readingを略して「DRR」と呼ばれるこの文書は、今年の夏の時点ではTeleperformanceとTikTokの従業員が広くアクセスできたという。関係ない部署で働く一部のモデレーターはこの資料の閲覧を制限されていたが、関係者はフォーブスに、両社で数百人がこの文書に自由にアクセスできたと語った。DRRやその他のトレーニング資料は、TikTokの中国にある親会社バイトダンス(ByteDance)が開発した社内ワークプレイスソフトウェア「Lark」に保存されていた。
ホイットニーは、この資料の扱いに愕然とし、FBIに報告し、その後捜査官と面会した。フォーブスは、FBIにこの問題を調査するかどうかについてのコメントを複数回求めたが、回答はなかった。
TeleperformanceのTrust & SafetyグローバルプレジデントのAkash Pugaliaは取材に対し、同社は児童虐待の露骨な内容の動画をトレーニングで使用しておらず、「キャリブレーションツール」にもそうした素材を保存していないと述べたが、そのツールが何か、何をするものかは明らかにしないと述べた。