アップルが2025年の世界開発者会議(WWDC)で発表した、メッセージとFaceTime、電話アプリの「ライブ翻訳」と、今年9月に追加した「AirPodsのライブ翻訳」の機能が、11月3日に公開された新しいiPhone向けのiOS 26.1から日本語にも対応した。
アップルが、プラットフォームやデバイスを横断するライブ翻訳機能を実現するために何を行ったのか、米アップルのArtificial Intelligence and Machine Learning プロダクトマーケティング シニアマネージャーであるアリーヴァ・カマル氏と、Sensing and Connectivity担当バイスプレジデントのロン・ホァン氏にインタビューした。
英語リスニングにも欠かせない、iPhoneの「ライブ翻訳」が日本語に対応
アップルが提供するライブ翻訳は、同社独自のパーソナルインテリジェンスプラットフォーム「Apple Intelligence」に深く統合されており、iPhoneなどアップルデバイスのユーザー同士による、言語の壁を越えたコミュニケーションの支援を目的として作られた。音声による会話やメッセージの内容を逐次に翻訳して、オーディオとテキストにより情報を伝える。
ライブ翻訳に関連するモデルはすべて、iPhoneなどアップルのデバイスのみで動作する。そのぶん、ユーザーのプライベートなコミュニケーションに関わる情報は強固に守られ、コミュニケーションを交わす当事者以外は、アップルを含む他の誰にもその情報に触れることができない。カマル氏は、安心・安全に使えるAI関連の機能であることを強調する。
インターネット通信、クラウドサーバーへの接続を必要としない機能であることから、例えば海外旅行に出かける際に使い勝手がよい。飛行機の中でiPhoneのデータ通信をオフにしている時や、電波が届きにくい場所を移動している時にも、iPhoneとAirPodsがあれば外国語を話す人との対面会話にライブ翻訳が使える。




