ヌード画像、運営に見られる恐れは?
この「ヌードフィルター」のような画像分析を行うには画像にアクセスする必要があるのは明らかだが、これはインスタグラムの運営側がユーザーのヌード画像をチェックしているということになるのだろうか。メタの説明によれば、インスタグラムのフィルターはユーザーのデバイス上で機械学習を利用して実行されるため、ユーザーが報告する選択をした場合を除き、運営側が「画像にアクセスすることはない」という。全米行方不明・被搾取児童センター(NCMEC)のシニアバイスプレジデント、ジョン・シーアンは、「企業には自社のプラットフォームを利用する未成年者を確実に保護する責任がある。この新しい措置によって未成年者による通報が増え、ネット上の児童搾取の蔓延が抑制されると期待している」と述べた。
未成年を標的としたSNS上での搾取行為やセクストーションの増加については、世界各地の警察が警鐘を鳴らしている。被害者が自殺するケースも増えている。
米連邦捜査局(FBI)は最近、主に14~17歳の少年を標的にしたセクストーション事件が増加していると報告。被害者が「孤独感にさいなまれ、恥ずかしさから助けを求めるのを恐れるケースが多い」「ゆすられた被害者の少年の自殺が憂慮すべき件数に上っている」としたうえで、被害者に「ひとりではない」と伝え、標的にされた場合には「信頼できる大人に助けを求められる」環境を整備することが重要だと強調した。
(forbes.com 原文)