サービス

2026.02.27 12:00

インスタ、10代が「自殺や自傷」で検索すると保護者に通知する機能を開始へ

Anna Barclay/Getty Images

Anna Barclay/Getty Images

メタは、10代の利用者がインスタグラムで自殺や自傷に関するコンテンツを検索した場合、保護者に積極的に通知する仕組みをまもなく導入すると発表した。ただし専門家は、SNS上の子どもの安全を守ることを目的とした今回の措置は、かえって家族に害をもたらす可能性があると指摘している。

advertisement

10代が特定の用語を繰り返し検索した際に、保護者へ積極的に通知を行う安全対策

インスタグラムは米国時間2月26日、最新の安全対策として、一定の短い期間内に子ども(編注:16歳未満対象のティーンアカウント)が自傷や自殺に関連する特定の用語を繰り返し検索した場合、保護者にメッセージを送信する機能を発表した

同社は、具体的にどのような検索ワードをきっかけに、そしてどのくらい頻繁な検索で通知が送られるのかについては示さなかったものの、慎重さを優先する「基準を設定した」と説明した。

この通知機能は来週、米国、英国、オーストラリア、カナダで導入され、その後、今年後半に他の地域にも拡大される予定である。

advertisement

専門家は保護者がパニックに陥るリスクを警告、内部アルゴリズムの修正にまず取り組むべきと指摘

16歳未満の子どもによるSNSの利用禁止を検討する英国では、自殺予防団体の責任者がこの新たな計画を「不器用」で「リスクをはらんでいる」と批判している。このような通知は、「保護者を動揺させ、その後に必要となる、繊細かつ困難な対話に十分備えられないような状態に陥らせる可能性が高い」と警告した。

また、モリー・ローズ・ファウンデーションのアンディ・バローズCEOは、メタは「保護者に責任を押し付けるような、皮肉なタイミングでの通知」を行う前に、若者に有害なコンテンツをいまだ「積極的に」推薦する自社のアルゴリズムの問題にまず取り組むべきだと述べた。これに対しメタは、インスタグラムの現行の安全基準では10代に向け表示する内容を実質的に制限できていないという、同団体の主張に異議を唱えている。

「ティーンアカウント」設定などの機能は、実際には子どもを保護できていないとの批判

インスタグラムは13歳以上の利用者に開放されているが、2024年には、不適切なコンテンツへの接触、オンラインでのグルーミング、過剰な使用時間といった保護者の懸念に対応するため、若年利用者に対して「ティーンアカウント」設定を適用した。

メタは当初、理論上は有効とされる複数の安全機能を導入したが、実際には子どもを十分に保護していないとして専門家から批判を受けた。2025年、メタの従業員2人が米連邦議会で証言し、保護措置があるにもかかわらず、子どもがいじめ、性的画像、成人向けコンテンツにさらされていたと述べたほか、児童が小児性愛者から裸の写真や性的行為を求められていたと明らかにした。

また、ロイターは2025年夏、同社のAIボットが「子どもと恋愛的または官能的な会話を行うことを許可されていた」と報じた。同年9月に児童安全団体とサイバー研究者が実施した調査では、インスタグラムの10代向け安全機能47個のうち30個が「実質的に効果がない」か「もはや存在しない」と結論付けられた。

一方、メタは自社の安全機能に対する多くの主張に反論し、インスタグラムを10代にとってより安全な場にするため積極的に取り組み続けていると主張している。

forbes.com原文

翻訳=江津拓哉

タグ:

advertisement

ForbesBrandVoice

人気記事