Ofcomは、オンライン安全法に基づき、子どもたちを保護するための40以上の対策案を発表した。
これらの対策案には、子どもがサイトやアプリそのものにアクセスできなくする可能性も盛り込まれており、ユーザーにパーソナライズされたレコメンドを提供するアルゴリズムを用いたシステムについても、新たなルールが設けられる。レコメンドを使用するサービスは、子どもたちのフィードから最も有害なコンテンツをフィルタリングし、その他の有害なコンテンツを目につきにくくする必要がある。
ソーシャルメディア企業はまた、コンテンツの監視の仕組みを改善しなければならない。その詳細は、明らかにされていないが、子どもにとって有害なコンテンツに対しては、迅速な対応が求められる。大手検索サービスは、ユーザーが子どもだと思われる場合に、「オフにできないセーフサーチ設定」を導入し、最も有害なコンテンツをフィルタリングしなければならない。
「プラットフォームは、若者が実社会で経験するような年齢チェックを導入し、オンライン上で有害なコンテンツを提供するアルゴリズムに対処しなければならない」と、英国の科学・イノベーション・技術大臣のミシェル・ドネランは述べた。
この規制は、以前からソーシャルメディア企業への規制強化を求めていた全英児童虐待防止協会(NSPCC)からも歓迎されている。同協会のピーター・ワンレスCEOは、「オンライン安全法と効果的な規制の両方が、子どもたちが安全にオンラインの世界にアクセスし、探索できるようにするための取り組みで極めて重要な役割を担っている」と述べている。
しかし、過去にオンラインでのトラブルが原因で死亡した2人の子どもの両親たちは、協議の欠如と変化のペースの遅さに、自分たちが「軽んじられている」と感じたとスカイニュースに語った。一方、デジタル権利運動家も満足しておらず、表現の自由を推進する団体のオープン・ライツ・グループは、この提案は言論の自由とセキュリティの両方を脅かすと警告している。
同団体のエグゼクティブ・ディレクターのジム・キロックは、「大人たちは、コンテンツにアクセスしないことで、彼ら自身の表現の自由を制限するか、データ漏洩やフィッシングサイトから生じるセキュリティリスクの増大に身をさらすか、という選択を迫られることになる」と述べている。
「また、海外のプロバイダーのなかには、このような厳しい措置に従うくらいなら、英国からのアクセスを全て遮断するところもあるだろう」と彼は続けた。
キロックはさらに、「セクシュアリティや性自認、ドラッグなどのデリケートなトピックに関連する教育的な素材も拒否される可能性も懸念している」と付け加えた。
Ofcomによれば、この対策案に関する協議は7月17日まで実施され、最終的な声明と文書は来年春に発表される予定という。
(forbes.com 原文)