I cover the control of content on the internet.

Getty Images

サイバーセキュリティの専門家グループが、アップルがiPhoneの内部の児童の性的虐待画像を検出しようとする計画に対し、異議を唱えている。アップルの試みは大規模な監視活動であり、禁止されるべきだと彼らは主張した。

今年8月にアップルは、個々のデバイスのiCloudフォトライブラリ内を検索して、児童の性的虐待に関わるコンテンツ(CSAM)を検出するシステムを導入する計画を発表した。同社はNeuralHash(ニューラルハッシュ)と呼ばれる技術を用いて画像をスキャンし、既知のCSAM素材のライブラリと比較した後、当局に通報すると述べていた。

この計画は9月に延期が発表されたが、アップルは、顧客や人権擁護団体、研究者などからのフィードバックを受けて、改善を検討していると述べていた。

しかし、セキュリティと暗号テクノロジーの専門家チームが、さらに厳しくアップルを批判する論文を公開した。「Bugs in our Pockets」と題されたその論文は、アップルが行うCSSと呼ばれるクライアント側のスキャニングが、あまりにも行き過ぎた行為だと主張している。

「CSSは、犯罪の防止を保証するものではなく、大規模な監視につながる危険性がある」と、論文を執筆した専門家のHal AbelsonやRoss Anderson、Steven M. Bellovinらのチームは述べている。

「CSSは、その性質上、すべての社会に深刻なセキュリティとプライバシーのリスクをもたらす可能性がある。クライアントサイドのスキャンは失敗したり、回避されたり、悪用されたりする危険がある」と専門家は述べている。

また、最大の危険は、この仕組が抑圧的な政府に悪用されることだという。アップルは、児童の性的画像やテロリストが悪用するコンテンツのみが検出対象になると述べているが、実際はそうではないと専門家は主張した。

「このような仕組みがあれば、様々な要望が殺到するに違いない」と、ケンブリッジ大学のセキュリティ工学教授のRoss Andersonは述べている。

「中国の習近平国家主席は、国家の秩序を乱す写真を誰が持っているかを知りたがり、著作権の弁護士は、顧客の権利を侵害する写真を持つ人物を、特定しようとするはずだ」と彼は指摘した。

編集=上田裕資

Apple

PICK UP

あなたにおすすめ