報告後も放置されるケース
TikTokは、憎悪的なイデオロギーや暴力の助長、ホロコーストの否定などに関するコミュニティガイドラインを設けているにもかかわらず、戦略的対話研究所の報告を受けても動画を放置しているか、削除しても対応は遅かったという。同社のコミュニティガイドラインには、「ヘイトスピーチ、憎悪に満ちた行動、憎悪に満ちたイデオロギーの宣伝は一切認めない」と記されている。報告の翌日、これらのアカウントはまだ削除されていなかった。報告された50アカウントの合計再生回数は620万回を超えていた。2週間後に15アカウントが利用停止となり、1カ月以内に50アカウントのうち23アカウントが削除された。しかし、他のアカウントは残っており、削除されたものの再生回数は200万回を超えていた。
これらのアカウントの再生回数が相当な数に達した後に、TikTokが違反コンテンツを削除すると研究者たちは推測している。
ネオナチのアカウントは、生成AIを使って文化侵略や人種差別の恐怖を煽る画像を作成していた。また、ナチスやネオナチのインフルエンサーがよく使う曲や画像を使用したり、コンテンツフィルターを避けるために絵文字や頭字語、数字による暗号化言語を用いていた(これらの画像や暗号はここには記載しないが、戦略的対話研究所のレポートページで閲覧することができる)。
コンテンツの中には、1930年代から1940年代のナチス・ドイツの映像が使われているものもあった。
「当初、おすすめページに表示されたコンテンツのほとんどは、ユーモラスなバイラル動画だったが、動画を25本ほど閲覧した後、ヒトラーの演説をAIが翻訳した動画が表示された。この動画の背景には、白人民族主義グループの募集ポスターが表示されていた」と同研究所は述べている。
(forbes.com 原文)