「当社は以前からISISやアルカイダなどの国際的テロ組織の投稿の発見に、マシンラーニングを活用してきた。その結果、過去2年間で2600万以上の国際的テロ組織のコンテンツを削除した」とフェイスブックは公式ブログで述べた。
しかし、マシンラーニングを活用した有害コンテンツの発見には限界がある。「クライストチャーチでの襲撃がライブ動画で配信された際、当社の自動検出システムは反応しなかった。暴力事件を1人称視点で映し出したコンテンツの量が不十分で、テクノロジーが有効なトレーニングを積んでいなかったからだ」と同社は説明した。
フェイスブックは今後、米英の警察と連携し、AIのトレーニングに用いる動画を入手していく。「今後は自動検出システムの精度を向上させ、映画やゲームの暴力シーンを抜粋したコンテンツを誤って削除しないようにする」と同社は述べた。
しかし、白人至上主義のコンテンツの追放に向けて必要なのは、何がテロ行為に当たるかを定義していくことだ。フェイスブックは組織化されたヘイト行為をテロ活動とみなしている。そこで力を発揮するのが、新たに設置された監視委員会だ。約40人の専門家チームがフェイスブックのコンテンツ監視に助言を与えていくことになる。
この委員会のコンセプトは、フェイスブックが来年の立ち上げを目指す、仮想通貨リブラの監査委員会と同様なものだ。しかし、リブラに関しては欧州の規制当局が警告を発しており、うまくいかない可能性もある。
しかし、白人至上主義の追放に向けたコンテンツ監視委員会は、一定の成果をあげることが期待される。米国の上院商業委員会はフェイスブックの暴力コンテツの取り扱いに関して、厳しい目を向けようとしている。今回のフェイスブックの試みは、政府の追求をかわす上でも有効なものになるかもしれない。