Close RECOMMEND

I cover crime, privacy and security in digital and physical forms.

Kaspars Grinvalds / Shutterstock.com

アップルは先週、すべての人のiPhoneの内部の写真をスキャンして、児童の性的虐待に絡むコンテンツを検知する計画を発表したことで、プライバシー擁護派の人々から激しい反発を浴びている。

アップルは、iPadやMacを含むiCloud対応デバイスに保存されているすべての写真を、児童の性的虐待のコンテンツ(CSAM)のデータベースと比較し、「ハッシュ」をチェックする。データを暗号アルゴリズムで処理して作られる数字であるハッシュを用いることで、その処理を迅速に行える。

そして、問題がある画像はアップルの社員の確認を経て、法執行機関であるNCMEC(全米行方不明・被搾取児童センター)と共有されるという。

一方で、米国の企業は法律により、サーバー上の児童虐待や搾取の画像をNCMECに報告することが義務付けられており、グーグルやマイクロソフト、フェイスブックも同様の対応を行っている。それでは何故、プライバシー擁護団体は今回のアップルの発表に反発しているのだろう?

それは、アップルがiCloud上のデータだけでなく、個人のiPhoneの内部の写真を検査の対象とするからだ。これは、競合企業よりも一歩踏み込んだ行為と言える(同社は別のテクノロジーを使って、端末内部の子供のヌード写真をスキャンしているが、この作業はすべてデバイス上で完結するもので、問題のあるコンテンツが発見された場合、簡単な警告が表示される)。

元フェイスブックのセキュリティスタッフで、暗号化技術の専門家であるアレック・マフェット(Alec Muffett)は、ツイッターで次のように述べた。誰かが携帯電話を買う場合、自分が所有する端末のすべてのコントロール権を手に入れると思うはずだ。しかし、アップルは「違法なコンテンツがiCloud にアップロードされることを防止するという名目」で、ユーザーのデバイスの内部に介入しているのだ。

エドワード・スノーデンもアップルを批判


マフェットだけでなくジョンズ・ホプキンス大学のマット・グリーン教授や、エドワード・スノーデンらも、アップルの動きに警鐘を鳴らしている。彼らは、アップルが他の政府の意向次第で、人々のデバイスにある別のタイプのコンテンツの検閲を行う可能性があると述べている。

編集=上田裕資

Apple

PICK UP

あなたにおすすめ