今回の新機能導入は、インスタグラムを含むSNSプラットフォームが10代の若者を保護する対策を十分に講じていないという懸念の高まりを受け、メタが実施したキャンペーンの一環だ。同社は、児童性的虐待コンテンツ(CSAM)の取り扱いで批判を浴びている。スタンフォード大学インターネット監視団が2023年6月に公表した報告書によると、メタのプラットフォーム上でCSAMを宣伝・販売する大規模なアカウントネットワークが発見されている。
同報告書は、インスタグラムの検出件数が圧倒的に多かったものの、複数のオンラインプラットフォームでも同様の問題が見られると指摘した。
Snapchatにも同様の問題
メタのマーク・ザッカーバーグCEOは、1月に上院で行われた子どもの安全に関する公聴会で共和党のジョシュ・ホーリー上院議員(ミズーリ州選出)からの児童の性的虐待に関する質問を受け、インスタグラムが原因で自殺したり、性的搾取の被害に遭った被害者の親たちに謝罪した。「メタは、セクストーションが大規模に発生している実態を把握していた。同社の対策は遅すぎる上、不十分であるように感じる」と、メタが関連するセクストーション事件に取り組んでいる弁護士のアニー・セイフラは話す。彼女によると、自動化テクノロジーによって、犯罪者は一度に多くの被害者に接触しやすくなっているという。
先月、Snapchatは未成年者をターゲットとしたセクストーションや虐待に関する報告件数が増えているにも関わらず対処せず、安全性よりも成長を優先させたとして、ニューメキシコ州の司法長官から訴えられた。訴状によると、2022年11月の社内調査で、同社は月間1万件ものセクストーションに関する報告を受けていたという。
(forbes.com 原文)