会話のリズムを大きく崩さない程度のスピードで、音声によるライブ翻訳が付いてくる。iPhoneの「翻訳」アプリと連携する機能なので、スマホの画面から翻訳の結果を文字で同時に確認できる。この精度とスピードが英語から日本語へのライブ翻訳でも実現できていれば、おそらく英語オンリーの記者発表会やパネルディスカッションを取材する時の即戦力になる。
ライブ翻訳はスマートグラスとの相性が良さそう
ライブ翻訳は高性能マイクを搭載するAirPods Pro 3、iOSのアップル純正「翻訳」アプリとApple IntelligenceのAIモデルの連携により実現する先進機能だ。3つの要素がすべてアップルによる自社開発であることから、ライバルには実現できないほど快適な使い心地が短期間に実現される可能性も高い。今後、国際会議にはiPhoneとAirPods Proが欠かせないようにもなるのだろうか
現在は「翻訳」アプリを投入したiPhoneとのペアリングが必要になる。ライブ翻訳の結果を、iPhoneの画面上からテキストで確認できるのは便利だ。しかしながら今後、翻訳の精度が向上した時にはiPhoneを持たずにAirPods Pro単体で身軽に使いたいと筆者は思う。
そのためにはまずAirPods Proが単体でApple Intelligenceを動かす必要がある。Apple H2チップにそこまでの余力があるのかわからないが、あるいは付属する充電ケースの側に「翻訳」アプリと、ライブ翻訳に必要なAIモデル、必要に応じてチップセットを投入すれば、AirPods Proだけでライブ翻訳が使えるようになるかもしれない。
ライブ翻訳の音声を聴くために、ユーザーはAirPodsを身に着けなければならない。ところが、イヤホンを装着しながら会話することに双方が抵抗を感じる場合もあるだろう。筆者はスマートグラスがその課題の解決策になると考える。今後、AirPodsシリーズに搭載されるさまざまな先進機能が、現在あるワイヤレスイヤホンの制約や固定観念を解き放ち、新しい形状・構造の可能性を拡大する推進力になることを期待している。
連載:デジタル・トレンド・ハンズオン
過去記事はこちら>>


