同社CEOのマーク・ザッカーバーグは、モデレーターが人力でコンテンツの精査を行う場合、10件につき1件の誤りを犯す可能性があると述べていることから、1日あたり30万件のミスが生じていることになる。
フェイスブックは約1万5000人のモデレーターを雇用しており、彼らが連日300万件の投稿を監視するとすると、1人が1日に200件の投稿を担当することになる。つまり1時間につき25本をこなして、ようやく達成できる仕事量なのだ。
さらに言うと、1コンテンツの判断にかけられる時間は150秒以下ということになる。しかし、監視対象には10分以上に及ぶ動画も含まれており、実際のところ各投稿にかけられる時間はわずか数秒程度だろう。
結果として、フェイスブックは連日、膨大な量のコンテンツを誤って「不適切なもの」と判断し、投稿の削除やアカウントの停止が行われることになる。モデレーターたちが人力で判断するコンテンツは、事前にAI(人工知能)のフィルタリングによって抽出されるが、そのAIの精度がそもそも低いという報告もある。
フェイスブック上で母乳の与え方などを教えるページを運営するSherry Loucksという女性は、これまで度々、アカウントの停止措置を食らってきたが、彼女は一切、不適切な投稿を行った覚えがないと述べている。
この問題を解決するためには、どのような施策が考えられるだろう。ニューヨーク大学の研究者らは、フェイスブックがコンテンツの監視を外部にアウトソースするのをやめ、内部でそれを行うのが有効な対策になると述べている。
もしくは、監視業務を賃金の安い途上国の業者にアウトソースするのもありだが、その場合は作業を行う人々のメンタルヘルスを十分に管理する必要があると、レポートでは指摘された。
結局のところ、モデレーターの力を借りずに、ソーシャルメディアを運営することは不可能だ。適切な監視を行わないと、児童ポルノやネオナチを賛美する投稿、グロテスクな場面など、見るに耐えないコンテンツがあふれてしまうことになる。この問題はフェイスブックに限らずツイッターやユーチューブ、インスタグラムにも存在する。
もちろん、AIの監視の精度を現状よりも大幅に高めることも、有効な施策になりそうだ。