Apple Intelligence:AIを自然に溶け込ませる実装
すでに第一段階のフェーズでは実装が進んでいるApple Intelligenceだが、多様なAIモデルの集合体であり、その進化は継続的に続けられている。
今回も新しい機能が追加されているが、機能というよりも複数のAIモデルを組み合わせ、ユーザーインターフェイスに溶け込むような実装を熟成させているように見受けられる。
AIツールの多くは使いこなしを意識する面倒をユーザーが意識しないかたちでインターフェースに統合しようとしている点にある。
ライブ翻訳は特定のアプリケーションで組み込まれているのではなく、多様なアプリの中に自然なかたちで組み込まれる。
例えばMessageアプリでは、連絡相手が使う言語が異なる場合にメッセージを自動的に翻訳して送信する。もちろん相手の返信も即座に自分が希望してある言語に翻訳されるので、いちいち翻訳ツールを使う必要はなくなる。
FaceTimeのビデオ通話では話し手の音声が自動的にテキストとなり、同時に翻訳されてライブキャプションとして表示される。
電話による通話の場合、相手が何かしゃべるとその後に逐次通訳で翻訳が音声で読み上げられ、それに対して自分の言語で返答すると、相手の言語に直して通訳される。
音声認識や読み上げ、翻訳といったところでAIが使われており、実装そのものも音声だったりテキストだったりするが、使う場面に応じて適切なかたちでAI機能を呼び出して、全体的な使いやすさを上げているわけだ。
このように、特定のツールや機能として提供しているわけではないため、さまざまなかたちで現れる。グループでMessageを使っている時、日付の調整などの意見を問いかけるなど、複数メンバーの投票が役立つ場面を検出し、投票機能の投稿を提案する、といった具合だ。
筆者は通話機能へのAIの応用が気に入った。
「通話スクリーニング」機能は、知らない番号からの着信に自動応答。相手の応答を文字認識し、名前と用件を収集してがユーザーが電話に出るかどうかの判断を委ねる。先方の発話パターンから迷惑電話やセールスであることがわかる場合は、そもそも呼び出し音も出さない。
「保留アシスト」も画期的だ。保留のままオペレーターにつながるまで待たねばならないことはよくあるが、保留しておくとオペレータが応答した時にそれを検知し、ユーザーに通知してくれる。


