車両がドライバーの接近を感知してドアを開ける。ここまでは、いまどき珍しくない。
だが、搭乗者の服装や状況を拾い、こちらの反応に合わせて会話の温度を変えてくる。こういう「間」の作り方は、単なる音声アシスタントとは違う。思わずジョークをデモンストレーターに話しかけると、AFEELAはそのジョークに合わせて返答をしてきた。
車をモノとして扱うのではなく、移動時の“場”を作り出すパートナーとして設定しているのだ。これはAIBOシリーズにも繋がる考えと言えるかもしれない。
川西氏がインタビューで強調したのは“VLA(Vision-Language-Action)”という概念だ。見て、理解して、動く。VLM(Vision-Language Model)と呼ばれるAIモデルが話題になることがあるが、単に視覚を取り入れるだけではなく、それをAFEELAという“ロボットの行動”までをひと続きに設計しているという。
テスラが作る車両が、映像情報をドライバーの操作へ直結させる方向で、システムを構成しているのと似た匂いはある。しかしAFEELAがおもしろいのは、車両制御を「パッセンジャーとの対話」と同居させることだ。
フィジカルAI世代のロボットが、映像や多様なセンサー、音声などを頼りに自律的にその身体を動かすのと同じ枠組みで移動体の室内体験を作り出そうとしていた。
もっとも、これは理想論だ。
AIBOが許される“曖昧さ”は、家の中で完結する。だが公道では、曖昧さはそのまま責任問題になる。ここから先、AFEELAが“ロボット”としておもしろくなるほど、同時に“自動車”としての不自由さが増えていく──その緊張関係を、SHMは正面から引き受けようとしている。
“現場のワークフロー”を取りに行った「SONY」
一方、ベラージオのスイートルームに陣取ったソニー本体が見せていたのは、エレクトロニクス製品を扱う“ソニー”である。一昨年よりXR(拡張現実)ジャンルの展示を強化していた同社だが、ここでは現実の空間を、手早く3Dデータ化し、さらにそれを活用して映像作品を制作する一気通貫のソリューション「XYN(ジン)」をデモンストレーションしていた。
XRやバーチャルプロダクションに欠かせない「空間キャプチャ」、「3Dスキャン」をより手軽に、すばやく、高品質に行い、それを直感的なユーザーインターフェイスで作品へと落とし込む技術だ。
なお、ここで展示されていたのは、その多くが“製品化前”のソリューションだ。年内に製品、あるいはサービスとして提供開始になるものだ。


