Close

PICK UP

Data journalist covering technological, societal and media topics

Denys Prykhodov / Shutterstock.com

米グーグル傘下の動画投稿サイト、ユーチューブは先ごろ、不適切な動画コンテンツの報告・削除に関する四半期ごとの状況をまとめた報告書を初めて発表した。2017年第4四半期(10~12月)に「不適切である」として削除された動画は、およそ828万本に上った。

ユーチューブは不適切なコンテンツを確認するため、人間とテクノロジーの力の双方に頼っている。同期に不適切な内容だと判断された動画のうち、76%は実際に公開・視聴される前に自動検出機能によって削除されていた。

また、問題となるコンテンツを確認するにあたっては、多くのユーザーや協力者(Trusted Flaggers)などの力を借りている。同期には特にインド、米国、ブラジルのユーザー・協力者などから多くの報告があった。

不適切だと判断・報告された理由のうち、最も多かったのは「性的な内容である」ことだった。約910万本に上り、指摘を受けた動画全体の30%を占めた。2番目に多かったのは「スパム・誤解を招く恐れがある」もので、約800万(26.4%)だった。その他に削除すべきとみなされた理由には、「憎悪・虐待を助長する」「暴力的・不快」「有害・危険な行為」「児童虐待」「テロリズムを助長する」などがあった。

ただし、ユーザーや協力者がユーチューブのガイドラインに違反していると警告した場合でも、それらが必ずしも全て削除されるわけではない。訓練を受けたスタッフが内容を確認し、削除が適当と判断した場合にそうした対応が取られているという。

以下、昨年第4四半期にユーザー・協力者などから「不適切」との報告があった動画の内容と全体に占める割合について紹介する(著作権侵害を理由に報告または削除された動画は含んでいない。また、1本の動画について複数の人から異なる理由で報告を受けている場合もある)。

2017年第4四半期に報告された「不適切」な動画

性的な内容─910万本/30.1%
スパム・誤解を招く恐れがある─800万本/26.4%
憎悪・虐待を助長する─470万本/15.6%
暴力的・不快─410万本/13.5%
有害・危険な行為─230万本/7.6%
児童虐待─160万本/4.2%
テロリズムを助長─50万本/1.6%

編集=木内涼子

記事が気に入ったら
いいね!しよう

LIKE @Forbesjapan

Forbesjapanを
フォローしよう

FOLLOW @Forbesjapan

あなたにおすすめ

合わせて読みたい