テクノロジー

2020.02.05 07:30

Google Pixel 4がジェスチャー操作に対応。新機能「Motion Sense」は生活をどう変える?


グーグルの日本法人が記者を集めて開催した新機能の説明会に、プロダクト マネージャーのBrandon Barbello氏が登壇し「人間の自然な振る舞いに寄り添いながら理解・認知できるMotion Senseは、新しいヒューマンインターフェースのかたち」であると語った。


Motion Senseの特徴を説明するグーグルのプロダクト マネージャー Brandon Barbello氏

Motion Senseが追加されることにより、「ロック画面で非アクティブ」(ディスプレイ常時オン)の機能を有効化した場合も、ユーザーが近くにいる時にだけ情報を表示することが可能になる。引いては待機時のバッテリー消費が軽減される。

ほかにもアニメーション表示が楽しめる「カミング アライブ壁紙」のコレクションから“ポケモン”を選択すると、端末に手をかざしながらピカチュウをなでたり、Motion Senseと連動するキャラクターとのコミュニケーションが楽しめるようになる。同様の使い方がゲーム系のコンテンツにも広がることが期待できそうだ。

さまざまなデバイスやアプリへの応用も期待できる


グーグルのBarbello氏は、ユーザーの動きをレーダーで検知するユーザーインターフェースを「人がボディランゲージを理解することに似ている」とした。スマホなどデジタルデバイスを使用する環境をまるごとコンピューティング処理のユーザーインターフェースとして、人間の体と結び付けていくという、グーグルが考える「アンビエント・コンピューティング」のひとつの理想型がPixel 4シリーズが搭載するMotion Senseなのだ。

なお昨年秋に日本上陸を果たしたスマートディスプレイ「Google Nest Hub Max」にも、フロントカメラに向かって手をかざすとアプリの操作などが可能になる「クイックジェスチャー」が搭載されている。こちらも同じフィロソフィーを起点に誕生したユーザーインターフェースではあるが、レーダーではなく光学イメージセンサーの技術を土台にしているところが大きな違いだ。

Barbello氏は、グーグルでは日ごろからデバイスごとに最適な形を検討しながら、ユーザーインターフェースの研究開発を続けていると話す。スマホについてはタッチスクリーンとボイスコントロールを補完するため、先述のプレゼンスやスワイプなど、手のひらによる比較的動きの大きなジェスチャー操作から採り入れた。一方で、Barbello氏はレーダー技術の特徴がmm単位の微細な動きを立体的にトレースしたり、温度や照度の変化にも高い追尾性能を発揮できる所にあると述べている。


Motion Senseの機能を実現するレーダーセンサーの小型化が一定のレベルに到達したことからPixel 4シリーズへの実装が可能になった。

数年に渡って開発を続けてきた結果、レーダーセンサーのICチップをスマホに実装できるサイズにまで小型化できたことがPixel 4シリーズへの採用に結びついた。また、レーダーがキャプチャできるデータのかたまりは抽象的であることから、エンジニアによるデータの分析と機械学習のアルゴリズムを突き合わせることによって、Motion Senseが「人の動き」を正確に検知できるようにブラッシュアップも図ってきた。現在は指先による動作も正確に識別できる精度に到達したという。
次ページ > 新たなサービスやアプリにも対応

文・写真=山本 敦

ForbesBrandVoice

人気記事