この動きは、インスタグラムで自傷行為や自殺関連の投稿を閲覧した14歳の少女が、2017年11月に自殺した事件を受けてのものだ。亡くなったモリー・ラッセルの父親は、彼女の死の責任の一端はインスタグラムにあると述べている。
「モリー・ラッセルの悲劇的な死は、ソーシャルメディアを運営する企業が、法に従う姿勢を持たないことが招いた結果の一例だ」とジェームスは主張している。
「これらの企業は米国や欧州において、ユーザーが投稿したコンテンツに関する法的責任を免れている。彼らは特権的立場を利用して、自社の利益を追求している」
先月は英国のマット・ハンコック保険大臣も、モリー・ラッセルの死に関連して、「ソーシャルメディア企業は有害コンテンツの根絶に向け、一層の努力を行わねばならない」と発言していた。
同様な声が相次ぐなかで、インスタグラムはこれまで、状況の改善に向けて新たな機能を追加していくと述べるのみだった。
しかし、2月4日、インスタグラムを統括するAdam Mosseriはデイリー・テレグラフに寄稿した記事で、同社がうつや自傷行為に関連する画像やハッシュタグのレコメンドを停止する措置を講じたと発表した。
「今週から、カッティングなどの自傷行為を含む画像にモザイクをかける『センシティビティスクリーン』を導入し、ユーザーが自ら進んで選択しない限り、そうした画像が表示されないようにする」とMosseriは述べた。
インスタグラムはさらに、暴力や自傷行為とみなされる可能性のある画像には、クリックした際に警告を表示する機能を導入すると述べている。
しかし、それだけでは不十分だというのがジェームス大臣の見解だ。「我々はソーシャルメディア企業に対し、有害コンテンツの排除を強制する法を導入する。これにより企業らに対し、自己の利益追求よりも、ユーザーの保護を優先させる」と彼女は述べた。
この法案が具体的にどのような形にまとまるかは、現時点では不明だが、来月には英国政府がまとめた、有害コンテツ排除に向けたガイドラインが公開される予定で、そこで詳細が明かされるという。
「新たな規制の導入に向けて、討議を重ね、最終的な政策文書の策定を進めている」とジェームスは話している。