北米など海外で先行提供されていた機能と同じものがいよいよ日本でも使えるようになった格好だ。
レーダーでジェスチャーを検知する「Motion Sense」。何が便利になる?
Motion SenseはグーグルがPixel 4シリーズで初めて導入したデジタルデバイス向けの新しいユーザーインターフェースであり、グーグルのR&D部門であるATAP(Advanced Technology and Projects)グループが約5年前から開発を進めてきたレーダー技術の「Soli(ソリ)」をベースにしている。
その特徴はデバイスに手を触れたり、声で話しかけなくても体や手のひらによる自然な「動作=ジェスチャー」で入力操作ができる所にある。またレーダーは人の動きを検知するために画像や音声データのキャプチャを必要としないため、ユーザーのプライバシー保護の観点からも優位性を持っている。
Google Pixel 4シリーズに搭載されているジェスチャー操作機能「Motion Sense」が日本国内でも2月4日以降に提供されるシステムアップデートを経て使えるようになる。
Motion Senseによるジェスチャー操作の基本は「プレゼンス」「リーチ」「スワイプ」の3種類に大別されている。
「プレゼンス」はユーザーが端末から約0.6mの半球以内の距離にいることをレーダーが自動判別する。用途は赤外線などを利用する人感センサーに近いと言えそうだ。例えばこれをPixel 4シリーズが搭載する顔認証によるロック解除機能に併用すると、ユーザーが近づいてきたことを検知するとすぐに顔認証がスタンバイ状態に入り、端末を手に持った途端に素速くロックが解除される。
「リーチ」はユーザーが端末に手を近づけた時の動作を検知する。例えば着信に気が付いたユーザーがスマホに手を伸ばしたことをMotion Senseが検知して、着信音のボリュームを下げてくれる機能はリーチの動作判定を基準にしている。
Motion Senseによるジェスチャー操作の基本「プレゼンス」「リーチ」「スワイプ」の3種類。プレゼンスは端末の周囲約0.6mの半球以内の距離にいるユーザーの動きを検知する。
そして「スワイプ」が加わるとアラームにタイマー、カメラのほかに、YouTube MusicやSpotify、Amazon Musicなど音楽プレーヤーのアプリを、スマホに手をかざして左右に動かすだけで操作できるようになる。