サービス

2023.02.21

子どものiPhoneユーザーを不適切な画像から守る機能 日本でも提供開始へ

iPhoneを持つ子どものユーザーを有害な画像コンテンツから守るコミュニケーション・セーフティ・メッセージ機能が日本で利用可能になる

Apple(アップル)はiPhoneなど、同社のデジタル端末を持つ子どもを性的搾取から保護するための機能を、OS純正のメッセージアプリに追加する。21年12月に北米から提供を始めた機能が、今後数週間以内に予定されているソフトウェアアップデートにより、日本国内でも利用可能になる。

メッセージアプリで通信される裸体の画像から子どもを守る

アップルが新たに提供するコミュニケーション・セーフティ・メッセージはiOS、iPadOS、macOSに標準搭載されている「メッセージ」アプリで使える、子どものプライバシー保護を目的とした機能だ。

新しい機能はiCloudの「ファミリー共有」を有効にした上で、管理者になる親がオプトインした場合、子どものアカウント設定に対して任意に追加できる。デフォルトでは無効になっている。

iOSのファミリー共有機能を有効にするiOSのファミリー共有機能を有効にする

管理者がコミュニケーション・セーフティの設定項目をオンにする

管理者がコミュニケーション・セーフティの設定項目をオンにする

コミュニケーション・セーフティを有効にすると、子どもがメッセージアプリ上で裸体が含まれる写真を送受信した際に、画像にぼかしを入れた上で、端末の画面上にアラートを表示する。

アラートの内容は検知された画像がユーザーに心理的負担を与えるものであったり、性的搾取につながる内容を含む可能性があることについて警告をした上で、周囲の信頼できる人に助けを求めるように促す。最終的に端末のユーザーが同意すれば画像は表示される。

メッセージに添付された画像は機械学習処理により、裸体を含む内容の有無をメッセージの送受信が行われる際に都度、端末上で解析される。アップルによると、メッセージアプリの通信内容は通常のメッセージを送受信する場合と同じくエンド・ツー・エンドの暗号化が行われ、アップルが通信の内容をのぞき見ることはないという。またユーザーが裸を含む画像を送受信したことは、管理者である親を含むユーザー以外の他者に伝わることがないように、機能全体をユーザーのプライバシー保護を最優先するかたちで設計した。

AI解析により不審な画像コンテンツにぼかしがかけられるAI解析により不審な画像コンテンツにぼかしがかけられる

画像を閲覧しない選択ができることをユーザーにうながす

画像を閲覧しない選択ができることをユーザーにうながす

次ページ > サードパーティによるアプリの対応

タグ:

ForbesBrandVoice

人気記事