テクノロジー

2021.08.06 11:30

アップルがiPhone内の児童ポルノ画像を検出へ、米国で開始

Photo by Onur Binay on Unsplash

Photo by Onur Binay on Unsplash

アップルは、iPhone内に保存された児童の性的虐待の画像を発見するための仕組みを、米国において導入する。ロイターの8月6日の記事によると、アップルは人々がiCloudにアップロードする前の写真をデータベースと照合し、問題がある画像を検出するという。
advertisement

ここで用いられるソフトウェアは「neuralMatch(ニューラルマッチ)」と呼ばれる予定で、個人のiPhoneに保存されている画像と、米国の法執行機関のデータベースに登録されている画像を比較し、フラグが立てられた場合、審査が開始されるという。違法な写真であると判断された場合、法執行機関にアラートが出される。

ロイターによると、このシステムは、iCloudサーバーにアップロードされる前のiPhoneに保存されている写真を、チェックするものだという。

このニュースは、フィナンシャル・タイムズが最初に報じていた。フォーブスはアップルにコメントを求めている。
advertisement

米国司法省は昨年、テクノロジー企業やソーシャルメディア企業に対し、子どもの性的搾取や虐待への対策を強化することを目的とした「自主的原則」を発表し、違法なコンテンツを発見した場合、ただちに当局に報告するよう呼びかけた。

マイクロソフトは、その後、企業がインターネット上の児童の性的虐待画像を特定するためのphotoDNAを作成した。フェイスブックとグーグルも、画像の内容を確認しフラグを立てるシステムをすでに導入している。

ジョン・ホプキンス大学のセキュリティ研究者であるマシュー・グリーンは、アップルが個人のiPhoneをスキャンして「禁止されたコンテンツ」を探すシステムを構築することは、「ダムを壊す」ことになり、米国政府がすべての人々の端末を検閲することにつながりかねないと指摘した。

グリーンはさらに、AP通信に対し、アップルが他の国の政府からの圧力を受けて、別の情報をスキャンするようになるのではないかという懸念を示している。

児童保護団体「National Council for Missing and Exploited Children」によると、フェイスブックが2020年に法執行機関に報告した児童の性的虐待画像は、2000万件に達していた。この数字には、フェイスブックとインスタグラム上の画像が含まれており、2019年の1600万件から上昇していた。

編集=上田裕資

タグ:

advertisement

ForbesBrandVoice

人気記事