サービス

2025.11.07 08:00

iPhoneが言葉の壁を超える、アップル開発者に聞く「ライブ翻訳」という挑戦

iPhoneなどアップルデバイスによるAI系新機能の「ライブ翻訳」が、OSのアップデートを経て日本語に対応した。アップルの担当者に開発の経緯を聞いた

AirPodsユーザーは、より高度なライブ翻訳が使える

AirPodsのライブ翻訳を日本語で使うためには、iOS 26.1以降にアップデートしたiPhoneと、ワイヤレスイヤホンはAirPods Pro 3、AirPods Pro 2、またはアクティブノイズキャンセリング(ANC)搭載のAirPods 4が必要だ。

advertisement

翻訳音声はAirPodsから聞こえてくる。ほぼ同時に、AirPodsをペアリングしたiPhoneの「翻訳」アプリの画面には訳文のテキストが表示される。テキストベースの情報はユーザー自身の理解を助けるだけでなく、対面による会話時には相手に対して「画面をみせる」ことで理解を求められる。

このような使い方は旅先で道を聞いたり、ショップで買い物をする際など短いワンタイムのコミュニケーションには効果的だが、一人の相手と長く話す時には不向きだと思う。「そのような時にはぜひ、会話の相手どうしでiPhoneとAirPodsを身に着けながらライブ翻訳を試しほしい」とカマル氏は語る。筆者はまだ試していないが、iPhoneの画面を見なくても音声だけでスムーズな会話が楽しめるという。

ユーザーがAirPodsとiPhoneの連携によるライブ翻訳を心地よく体験できるように、ユーザーインターフェースは細部まで作り込んだ。

advertisement

ライブ翻訳の起動方法はいくつかあるが、iPhoneのアクションボタンに割り当てるか、またはAirPodsの左右本体の感圧センサーリモコンを同時に押し込む操作が最も速くシンプルだと筆者は思う。

iPhone本体側面のアクションボタンに翻訳アプリの起動を割り当てることもできる
iPhone本体側面のアクションボタンに翻訳アプリの起動を割り当てることもできる

AirPodsが搭載するApple H2チップのパフォーマンスを活かして、AirPodsが内蔵するマイクをライブ翻訳のために最適化した。通常の音声通話の際、AirPodsのマイクはユーザーの口もとを狙って、声をクリアに集音する。しかしライブ翻訳を起動すると、「目の前にいる相手」の声も正確に聞き取るようにマイクが集音指向性を変える。ホァン氏はコンピュテーショナル・オーディオを駆使して、マイクの集音範囲をより遠くにいる人の声までカバーできるようにチューニングしていると語る。

ユーザーがライブ翻訳の機能を人混みの中や、交通ノイズに囲まれるようなうるさい場所で使うことも想定して、音声認識のアルゴリズムもブラッシュアップした。環境ノイズを低減するだけでなく、話者同士の距離と位置関係、デバイスのマイクの向きも考慮に入れる必要があったという。

AirPodsのライブ翻訳を起動すると、AirPodsとiPhoneの両方のマイクが有効になる。iPhoneを話者の近くに置いて、AirPodsを装着したまま遠ざかっても翻訳音声が聞こえてくる。ホァン氏によると、ふたつのデバイスのマイクを併用している時は音声認識の精度も網状するそうだ。

次ページ > 日本語対応の精度は? 英語による講演会や記者会見のリスニングにも役立つ

編集=安井克至

タグ:

advertisement

ForbesBrandVoice

人気記事