ほんの数週間前、「Gmailのユーザーデータを秘密裏にAIの学習に使っている」との疑惑が拡散したが、グーグルはこれを否定した。現在、似た主張が再び持ち上がっている──ただし今回は、標的になっているのは15億人の『Google フォト』利用者だ。
この主張の出所は、Protonだ。同社は、『Google ドライブ』競合となる暗号化クラウドストレージサービス『Proton Drive』を運営しており、利害関係がある。しかし、それでも主張は世に出てしまった。
Protonは、主張を裏づける証拠を示していない
Protonの主張は、グーグルのAI画像生成「Nano Banana」が話題となり、称賛が広がった流れを受けている。「グーグルのAI画像生成は『良すぎる』のか?」とCNETは問い、「グーグルの新しいAI画像モデルは、現実とAIの境界線に残っていたものを消し去った。ぞっとするほど、その仕事がうまい」と評した。
そこでProtonがXに投稿した内容がこれだ。「グーグルのAIが画像生成で最高なのは、AndroidユーザーのGoogle フォトのアルバムをスキャンしているからだと分かっているのに、グーグルはそれを認めないし、こちらは証明もできない」。
Protonはこの主張を裏づける証拠を示していない。筆者はグーグルに対し、Protonの主張への見解と、Google Photos利用者に対する安心材料があるかを問い合わせている。
When you know the only reason Google's AI is the best at generating images because they're scanning every Android user's Google Photos albums but they won't admit it & you can't prove it pic.twitter.com/c5oF44R5u2
— Proton Drive (@ProtonDrive) December 23, 2025
グーグルは、「Google フォト ヘルプ」で次のように述べている。「GoogleがGoogle フォト内の個人データを使用して、Google フォト外部の生成AIモデル(他のGeminiモデルやプロダクトを含む)をトレーニングすることはありません。Google フォトから他のGoogleサービスやサードパーティサービスに写真や動画を共有する場合、それらのサービスが定めるポリシーに従ってデータが処理されます」。
Google フォトはエンドツーエンド暗号化のプラットフォームではない。またグーグルは、CSAM(児童性的虐待コンテンツ)を検出するために、写真を「訓練を受けた専門チームと自動化技術」でスキャンしている。だが、データをAI画像生成の学習に使うことは、明らかに別問題である。
さらに、Protonの投稿は、プラットフォームとユーザー双方に共通する課題を要約している。クラウドのプラットフォームは、さまざまなプライバシーポリシー、オプトイン、オプトアウトの枠組みのもとで、舞台裏のAI利用をますます拡大している。大半のユーザーは細かな規約を読まずに、そのまま使い始めてしまう。
その結果、こうした主張が浮上することになる。
いつものとおり、一般的な注意点は変わらない。これらのプラットフォームは、エンドツーエンド暗号化されていない限り、ロックダウンされていない。以上である。自動化されたCSAMスキャンがある以上、あなたの写真はいずれにせよ分析されている。覚えておくべき点だ。



