その広大なリーチと有害コンテンツの管理への不十分な注意のため、YouTubeは民主的な言説に対する深刻な脅威となっている。ダートマス大学の研究者アニー・Y・チェンとブレンダン・ナイハンは、Anti-Defamation League(名誉毀損防止同盟)が2021年に発表した、YouTube上の人種差別やその他の憎悪に関するチャンネルを調査する研究を監督した。彼らは、このプラットフォームが疑うことを知らない個人を有害なコンテンツに誘導しているという体系的な証拠をほとんど発見しなかった。しかし、彼らのデータは、「YouTube上の過激派や白人至上主義者のチャンネルからの動画に触れることが、依然として不穏に多いことを示している」。
では、これからどうすればいいのか。NYUの報告書は、GoogleとYouTubeが「コンテンツのランクづけ、推薦、削除に使用するアルゴリズムの具体的な基準、また、それらの基準が変更される頻度や理由、それらの基準の操作」を説明する必要があると勧告している。さらに、YouTubeは、重要な企業機能を外注するという業界のコスト削減のやり方に従うのではなく、人間の審査員を増やし、すべてのモデレーターを直接雇用にするなど、コンテンツモデレーションシステムを劇的に拡大し改善する必要がある。同時に、YouTubeは、動画削除の大部分を担っている自動フィルタリングの設計と運用を引き続き改善する必要がある。これらは膨大なタスクであり、特にグローバルサウスの国々において、Googleはより大きなリソースを投資する必要がある。
私はこれまで、合衆国憲法や国際法に含まれる賢明な言論の自由の保護に基づき、政府は一般的にオンラインコンテンツの調整に干渉することを避けるべきだと考えてきた。しかし、YouTubeをはじめとする大手ソーシャルメディア企業の対応があまりに遅いため、私の考えは変わった。