グーグルの世界開発者会議「Google I/O」が米国時間の2025年5月20日に開幕した。初日の基調講演にはCEOのスンダー・ピチャイ氏をはじめとするキーパーソンがステージに上がり、技術開発の最先端を紹介した。イベントで触れられた数多くのテーマの中から、いま最も勢いよく拡大する「グーグルのAI」に関連する発表を振り返りながら今後の展望を見据えてみたい。
加速するAI開発、新技術の日本上陸は
ピチャイ氏は「生成AIに関連する技術がいま加速度的な成長を遂げている。この春から提供を始めた最新のGemini 2.5シリーズをはじめ、グーグルのAIサービスにも特に大きな反響がある」と述べた。
振り返ればグーグルは2024年に、ユーザーとの自然な会話のやり取りに応答しながら情報検索などのリクエストに応える「Gemini Live」を発表した。そのベースは2024年5月のGoogle I/Oで披露された、カメラ映像など視覚情報をリアルタイムに認識しながらユーザーと会話を交わせるマルチモーダルなAIアシスタントの開発コード「Project Astra」だった。
そして発表後間もなく、8月13日発売のスマートフォン「Google Pixel 9 Pro」にGemini Liveが実装されたことも驚きをもって迎えられた。当初は英語の音声とテキストにのみ対応していたが、また間を置かずにGemini Liveは日本語が話せるようになり、今年の4月にはカメラ映像の読み込みをサポート。視覚情報も認識できるAIアシスタントになった。
今年のGoogle I/Oでは、すべてのAndroidとiOSのGeminiアプリから、Gemini Liveのカメラ映像の取り込みが「無料で使える」ようになることが発表された。これから順次、さまざまな端末・アプリにロールアウトする。
基調講演では、グーグルが米国から先行導入するいくつもの新しいAI関連の技術とサービスが紹介された。専用のハードウェア等を必要とする一部の内容を除き、おそらくは日本など米国以外の地域にも「少し遅れる」くらいのタイミングでの上陸が期待できそうだ。今年もまた夏・秋ごろにPixelシリーズの次期ハイエンドモデルが更新されるようであれば、今回のGoogle I/Oで発表された重要な「グーグルのAI」も実践投入を迎えるだろう。



