テクノロジー

2025.12.30 14:30

『Google フォト』画像が秘密裏にAI学習に利用されている? プライバシー重視のProtonが主張

Shutterstock

Shutterstock

ほんの数週間前、「Gmailのユーザーデータを秘密裏にAIの学習に使っている」との疑惑が拡散したが、グーグルはこれを否定した。現在、似た主張が再び持ち上がっている──ただし今回は、標的になっているのは15億人の『Google フォト』利用者だ。

advertisement

この主張の出所は、Protonだ。同社は、『Google ドライブ』競合となる暗号化クラウドストレージサービス『Proton Drive』を運営しており、利害関係がある。しかし、それでも主張は世に出てしまった。

Protonは、主張を裏づける証拠を示していない

Protonの主張は、グーグルのAI画像生成「Nano Banana」が話題となり、称賛が広がった流れを受けている。「グーグルのAI画像生成は『良すぎる』のか?」とCNETは問い、「グーグルの新しいAI画像モデルは、現実とAIの境界線に残っていたものを消し去った。ぞっとするほど、その仕事がうまい」と評した。

そこでProtonがXに投稿した内容がこれだ。「グーグルのAIが画像生成で最高なのは、AndroidユーザーのGoogle フォトのアルバムをスキャンしているからだと分かっているのに、グーグルはそれを認めないし、こちらは証明もできない」。

advertisement

Protonはこの主張を裏づける証拠を示していない。筆者はグーグルに対し、Protonの主張への見解と、Google Photos利用者に対する安心材料があるかを問い合わせている。

グーグルは、「Google フォト ヘルプ」で次のように述べている。「GoogleがGoogle フォト内の個人データを使用して、Google フォト外部の生成AIモデル(他のGeminiモデルやプロダクトを含む)をトレーニングすることはありません。Google フォトから他のGoogleサービスやサードパーティサービスに写真や動画を共有する場合、それらのサービスが定めるポリシーに従ってデータが処理されます」。

Google フォトはエンドツーエンド暗号化のプラットフォームではない。またグーグルは、CSAM(児童性的虐待コンテンツ)を検出するために、写真を「訓練を受けた専門チームと自動化技術」でスキャンしている。だが、データをAI画像生成の学習に使うことは、明らかに別問題である。

さらに、Protonの投稿は、プラットフォームとユーザー双方に共通する課題を要約している。クラウドのプラットフォームは、さまざまなプライバシーポリシー、オプトイン、オプトアウトの枠組みのもとで、舞台裏のAI利用をますます拡大している。大半のユーザーは細かな規約を読まずに、そのまま使い始めてしまう。

その結果、こうした主張が浮上することになる。

いつものとおり、一般的な注意点は変わらない。これらのプラットフォームは、エンドツーエンド暗号化されていない限り、ロックダウンされていない。以上である。自動化されたCSAMスキャンがある以上、あなたの写真はいずれにせよ分析されている。覚えておくべき点だ。

forbes.com 原文

翻訳=酒匂寛

タグ:

advertisement

ForbesBrandVoice

人気記事