グーグルが、生成AIであるBardをメッセージアプリに取り込むことに期待が高まるのは当然だ。ChatGPTに似たUIが、数億人のユーザーのためにあらかじめ組み込まれるのだ。「これはAIアシスタントです。あなたのメッセージング体験を向上させます。会話の支援から、創造力の向上、情報の提供まで行う、あなたのメッセージングアプリの中にいるパーソナルAIアシスタントです」とBardは回答する。
しかしBardは「あなたの会話の文脈、口調、興味などを理解する」ためにメッセージのプライベートな内容も分析する。また「あなたの気分や雰囲気に合わせて返信するために」メッセージの感情を分析する。そして「あなたの人間関係を理解し【略】会話している相手に応じて返信をパーソナライズするために、過去のさまざまな相手との会話履歴を分析」すると答えている。
アプリの許可、プライバシーラベル、追跡の透明化、そして記憶に新しい音声AIアシスタントの盗み聞きスキャンダルまで、こうして、スマートフォンオーナーにとって新たなプライバシーとの戦いが始まる。これがが、過去に見てきたようなユーザーのコンテンツとAIプラットフォームに関わるプライバシーの悪夢を呼び起こすものではないとユーザーを説得することがグーグルの課題だ。
他にも、メッセージアプリがBardに送るリクエストに関するプライバシー問題がある。匿名化されてはいるものの、Bardへのリクエストはクラウドに送られ、訓練に使われたり人間に読まれる可能性がある。それらのデータは18カ月間保存され、AIを無効化しても数日間保持される。ただし手動で削除することは可能だ。
Bardへのリクエストは、グーグルのメッセージアプリで最近デフォルトになっているエンド・ツー・エンド暗号化の対象外であり、ユーザーは文字どおりグーグルに直接メッセージを送ることになる。これは議論を呼ぶものではないが、留意しておく価値はある。ChatGPTをはじめとするあらゆる生成AIチャットボットと同じく、あなたの問いかけはすべて、プライベートではなく後に悩まされてしまう「可能性」があることは知っておくべきだ。
しかし、メッセージの分析は違う。それは現代のプライベートメッセージングの新たな基準となっているエンド・ツー・エンド暗号化の楯に守られているコンテンツだ。多くの処理を可能にするためにコンテンツをクラウドにアップロードする代わりに、データを端末の外へ出すことなくデバイス上でAIの処理を行うほうが理想的だ。