また、Xのコミュニティノートに関する研究では、この仕組みの効果にはバラつきがあり、一部の虚偽の主張はユーザーの注釈によって反論されるものの、多くの誤解を招く投稿が訂正されずに流通しているという。誤情報と取り組む団体の「Center for Countering Digital Hate」は、X上の誤情報の多くにはコミュニティノートで修正が付与されておらず、注釈が書かれていても適用されないケースが多いと指摘している。メタが同様の課題に直面すれば、新システムの効果が疑問視される可能性がある。
業界全体で進む「再評価」
メタによるコミュニティ主導型のファクトチェックへの移行は、業界全体で進むモデレーションの再評価の一環でもある。主要プラットフォームは政治的圧力や規制の強化、財務的な要因を受けて、モデレーションの方針を見直している。
一方でTikTokは、人工知能(AI)が主導するモデレーションを採用しながらも、人間のレビュー担当者も配置する方式をとっている。同社は、有害なコンテンツの大半をユーザーが目にする前に削除していると主張するが、自動化システムには限界もある。
グーグル傘下のYouTubeは、AIフィルターと外部のファクトチェック機関を組み合わせたアプローチをとっている。同社は、政治的議論の過剰な抑制を防ぐために一部のルールを緩和する一方で、有害な誤情報の拡散を抑える方針をとっている。
メタが第三者機関のファクトチェックを終了し、コミュニティノートを採用する背景には、政治的および規制上のプレッシャーの高まりも指摘されている。米国ではここ最近、SNS企業が特定の意見を検閲していると非難されることが多いため、メタは既存の取り組みを廃止することでこうした批判をかわし、政府の監視を回避しようとしている可能性がある。
一方、欧州ではデジタルサービス法(DSA)の下で、プラットフォームに対し違法コンテンツの削除や誤情報の抑制が義務付けられている。そのため、メタは欧州では従来のファクトチェックの体制を維持し、この規制に対応している。このことは、ハイテク企業が地域ごとの規制に対応する必要性を浮き彫りにしている。
メタのコミュニティノートの導入は、大きな賭けとなるが、この試みが成功すれば、コミュニティ主導のアプローチが外部機関のファクトチェックに代わる有効な手段であることが証明される。しかし、誤情報の拡散が十分に抑制されなければ、ユーザーや規制当局、広告主からの反発を招く可能性がある。
メタは、果たしてこの取り組みを成功させることができるだろうか? 同社の新たな試みの成否は、同社の今後の方向性のみならず、デジタル時代におけるコンテンツモデレーションのあり方をも左右することになるだろう。


