I cover the control of content on the internet.

Getty Images

欧州議会は7月6日、インターネット企業がユーザーのプライベートなメッセージをスキャンして、児童の性的虐待に関わるコンテンツを検出することを認める緊急措置を承認した。

物議を醸すこの判断は、昨年12月に施行された電子通信プライバシー指令の問題点を解決するための暫定措置だ。欧州委員会によると、昨年は児童虐待関連の画像や動画が400万件近く報告され、大人が性的動機から児童に接近する「グルーミング」と呼ばれる行為が約1500件、発生していた。

しかし、昨年12月のプライバシー指令は、テクノロジー企業が児童の性的虐待などの違法コンテンツを探すことを禁止する内容になっていた。

「その後の数ヶ月の間に、報告件数は53%も減少したが、何百ものケースが、毎日、気づかれないままだった」と、欧州議会のイルヴァ・ヨハンソン委員は先日のスピーチで述べていた。

今回の措置により、最長で3年間の間、インターネット企業がこれらの問題コンテンツを検出したり、削除することが承認された。一方で、各国のデータ保護当局は、そこで使用されるテクノロジーを厳格に監視することになる。すべての行為は、GDPRおよび欧州連合基本権憲章の対象となり、検索対象は必要なものに限定され、保持される期間も限定される。

また、データ処理は人の目で監視されなければならず、企業がグルーミング防止技術や新たなテクノロジーを導入する場合は、各国のデータ保護当局に相談することが求められる。

「今回の措置は、オンラインでの児童の性的虐待の検知と、ユーザーのプライバシー保護を両立させるものだ。完璧ではないかもしれないが、今後3年間は実行可能な暫定的な施策となる」と報告者のビルギット・シッペルは述べた。

しかし、すべての欧州議会の議員らが同意しているわけではない。海賊党の議員のパトリック・ブレイヤーは、自動化されたツールによって報告されたコンテンツの86%は、実際には問題があるものではないと主張した。

「今回の措置で、メールやメッセージ、チャットなどを無差別に検索し、違法と思われるものを見つけて警察に報告することが可能になる。しかし、それは非効率的であり、逆効果であり、危険であり、子どもを含む深刻な巻き添え被害を生むことになる」と、彼は指摘した。

一方、欧州データ保護監督機関(EDPS)と欧州評議会は、この措置がプライバシーを侵害し、人々の権利の侵害となる可能性があるとの懸念を表明した。

編集=上田裕資

PICK UP

あなたにおすすめ