「Unreal Engineでは、3Dデータアセットを地図上に配置して、そこにさまざまなエフェクトを加えることもできると考えています。AFEELA 1では、車体に搭載された複数のセンサーが取得する情報を3Dマップ上に正確に反映させるため、高度なセンサーフュージョン技術の開発を進めています。以下はあくまで私が思い描くコンセプトですが、例えば、周囲の移動体を地図上に適切に表現することで、ドライバーの状況認識を補助し、よりスムーズで快適な運転体験を実現する可能性があるかもしれません」
AFEELA 1が発売時に搭載する3Dマップは、未来の安全運転支援の可能性を拓く「第一歩」だと小松氏は強調する。「Unreal Engineを使う3Dマップを載せるクルマはおそらくAFEELA 1が初めてになると思います。ますます便利になる3Dマップの未来の可能性が、体験する皆様に少しでも伝われば本望です」(小松氏)
会話の文脈を理解するパーソナルエージェント
筆者が注目するもう1つのAFEELAらしい機能が対話型パーソナルエージェントだ。ソニー・ホンダモビリティはマイクロソフトと連携して、Microsoft Azure OpenAI Serviceを活用したエージェントの開発を進めている。
ドライバーの方から「Hey AFEELA」と話しかけて、パーソナルエージェントにルート検索とナビ、エンタテインメントコンテンツの再生などをお願いできる。時にはパーソナルエージェントの方から、ドライバーに対して能動的に話しかけてくることもある。渋滞中のノロノロ運転時に、ドライバーが集中を切らさないように声かけするような振る舞いも作り込んでいるようだ。
開発の最前線に立つ小松氏がいま、AFEELA 1の対話型パーソナルエージェントによる体験をどのようにデザインしているのか聞いた。小松氏は「実際にこうなるというのではく、あくまで私の思いを話したい」と前置きしながら、次のように答えてくれた。
「これから自動運転に対応するモビリティの時代がくれば、ドライバーが走行中により多くの場面で音声によるインタラクションを使う機会が増えると考えています。自然言語による音声操作の場合、あたかも人と人が話すように会話の文脈(コンテキスト)を理解しながら、コミュニケーションを共有できるようになれば理想的です」
「例えば自動車のカメラなどのセンサーが捉えている情報をパーソナルエージェントがリアルタイムに共有できれば、『あの先に見える信号を右に曲がって、そのあとにあるコンビニに寄って欲しい』といった具合に、人との会話に近い形でクルマとマルチモーダルなインタラクションも交わせます。発売当初はまだAFEELA 1の対話型パーソナルエージェントはユーザーと会話ができるレベルからスタートしますが、私たちは将来的にAFEELA 1が音声や視覚情報をセンシングしながら『新しい体験』をユーザーに提供できるように日々アイデアを練っています」(小松氏)