ただしGrapheneOSは「これがオープンソースとして公開されず、Android Open Source Projectの一部でもないのは残念だ。モデル自体も公開されておらず、もちろんオープンソースでもない。ローカルでニューラルネットワークを活用できる機能自体には問題がないが、それらはオープンソースであるべきだ」と指摘している。ここでもやはり透明性の問題に行き着くわけだ。
グーグルによれば「SafetyCoreは、端末上で安全かつプライベートに分類を行うための基盤を提供し、ユーザーが望まないコンテンツを検出できるようにするものだ。ユーザーはSafetyCoreを制御でき、アプリがオプションで有効化した機能を介してリクエストした場合にのみ、特定のコンテンツを分類する」とのことだ。
そしてユーザーがその存在を知っていれば、確かにそれは事実なのかもしれない。
ZDNetによると、問題は「グーグルがこのサービスをユーザーの端末にインストールしたことを伝えなかった」点にある。10月以降にソフトウェアのアップデートを受け取った、あるいは新しいAndroid端末を使っている人は、ほぼ確実にSafetyCoreが入っているそうだ。アップルの場合と同じく「Android 9以降の端末にユーザーの明示的同意なしに静かにインストールされること」がプライバシーと端末コントロールの観点から懸念を呼んでいる。
グーグルは、SafetyCoreそのものが写真スキャンの仕組みを導入する一方で、実際のスキャン処理は別機能として行われると強調している。たとえば今年実装が始まる閲覧注意コンテンツの警告などは、端末内だけで完結するという。
秘密主義だとの指摘に対して、グーグルは筆者に対して次のように述べている。「グーグルのシステムサービスは、セキュリティやバグ修正、新機能などを自動的にデバイスへ更新します。一部の更新は別のAndroidパッケージとしてシステムサービスを通じて配信しており、これは最小権限の原則に従ってプライバシー、セキュリティ、データ分離を維持するためです。私たちは製品の透明性向上に継続的に取り組んでおり、これらのグーグル・システムAPKにバイナリ透明性を追加しました」
SafetyCoreは昨年11月にも取り上げられていたが、大きく報道されることはなかった。グーグルは当時、開発機能の概要を示すとともに、アップルの端末内コンテンツ安全機能に似たセンシティブコンテンツの警告をGoogleメッセージに導入予定であると別途宣伝していた。