サービス

2023.06.09

ツイッターで児童ポルノが野放しに スタンフォード大学が指摘

Getty Images

ツイッターがここ数カ月間、既知の児童性的虐待画像を削除できていなかったことが、スタンフォード大学の調査により明らかになった。

スタンフォード大インターネット観測所(Internet Observatory)の研究チームによると、ツイッターは今年3月から5月までの2カ月間、児童性的虐待コンテンツ(CSAM)40件を適切に処理できていなかった。

研究チームは、ツイッターのAPIを使用して収集した10万件のツイートのメタデータから、マイクロソフトの「PhotoDNA」ツールを使用して問題のある画像を識別し、全米行方不明/被搾取児童センター(NCMEC)に登録されている未成年者の既知の違法画像と比較。結果、40件の一致があった。4月、ツイッターのCSAM検出メカニズムに問題があることをNCMECに報告したが、その後も問題は継続したという。

ツイッターには、トラスト&セーフティ部門の担当者が残っていなかったため、研究チームは第三者を通じてこの問題を同社に通知。その結果、5月20日までにこの問題は解決したもようだとしている。

イーロン・マスクが、これまで無料だったAPIに月額4万2000ドル(約590万円)の使用料を請求することを決定したことで、今後はこのような調査が、はるかに難しくなる見通しだ。スタンフォード大学のチームは最近、このAPIの使用を中止せざるを得なくなったという。

イーロン・マスクは、APIの無料提供を終了する理由として、「詐欺やスパムボットによる悪用」を挙げている。2020年の大統領選挙の際には、偽情報の拡散に利用された無料のAPIを「プロパガンダマシン」と呼んでいた。

スタンフォード大の研究チームは、米紙ウォール・ストリート・ジャーナル(WSJ)に今週掲載された記事で、研究結果の詳細を明かしている。

ツイッターのセーフティ部門は今年1月、CSAMを削除するために「これまで以上に迅速に動いている」と主張。CSAMを含むコンテンツに関与したとして、約40万件のアカウントを停止したと述べていた。しかし、その後の複数の報道で、ツイッター上でCSAMがまだ蔓延していることが指摘されている。

米紙ニューヨーク・タイムズ(NYT)は2月、マスクによる買収後のツイッターが、児童の安全団体が指摘したCSAMの削除に2倍の時間を要するようになったと報じている。

ツイッターは今も、メディアからの問い合わせメールにはうんこの絵文字の自動返信で応じている。

forbes.com 原文

編集=上田裕資

タグ:

ForbesBrandVoice

人気記事