やっぱりアップルという企業は、パーソナルコンピュータを作って、次にモバイルコンピュータを作り、iPodという携帯デジタル音楽プレーヤーやスマートウォッチを作ったりと、それまでの製品や生活をひっくり返してきた歴史・文化があって、今回のApple Vision Proもそういうことかと。
想像よりも機能的── まさに身の回りの空間がコンピュータに
初期設定を終え、シンプルな基本操作さえ覚えればあとは説明書がなくても使えるほどわかりやすく、ずっとつけていられるクオリティにもある程度達していて、とにかくすごく便利なんです。私が一番使っているのは出張の時で、かけた瞬間からオフィスにいるかのように仕事ができます。
空間に表示されるディスプレイがあれだけ綺麗だとリトリートだったりエンタメ鑑賞に使うイメージがありがちですが、普段の仕事や生活でも色々なことが整理できて、想像よりもはるかに機能的なんですね。
身の回りの情報の認識や記憶ができ、時間の概念も持っているので、やるべきタスクのリストがタイミングよく立ち上がったり、家の鍵をどこに置いたっけ?みたいな時にポップアップで場所を教えてくれたりといった気の利いたこともできてしまう。
もちろんPCやスマホで断片的にやれていたこともありますが、Apple Vision Proが軽くなって常にかけていることが普通になり、AIとセットで進化すると、目の前で色々な情報が自然とまとまって、どんどんこなせる日常がすぐにやってくるでしょう。
こうなってくると、もはやメタバースとかARのツールではなく、「空間全体をコンピュータの入口と出口にする装置」だと思いました。PCやスマホの限られた液晶画面の中ではなく、まさに身の回りの空間がコンピュータとなり、情報を空間で操るようになるんだと。
人間の能力が下がるんじゃないかという見方もあるかもしれませんが、逆に人間ができることも倍増する、ある意味「身体能力の拡張」といったところがあると思うんですよね。
どう捉えるかは結局は人それぞれなんでしょうけれど、私なんかはやりたいことがたくさんあるので、もうワクワクでしかない、幸せしかないと感じています。
──渡邊さんにそう感じさせた、Apple Vision Proの技術的ポイントを挙げていただけますか?
まず素晴らしいのが、片側4K・両眼8Kの超高解像度のディスプレイシステムです。
パススルーという、リアルの周囲の映像がディスプレイに表示される機能の精度があまりにも自然で、まるでサングラスをつけてるかぐらいに見えます。この映像がジャギジャギしているとものすごく疲れますが、違和感がありません。
センサー技術がとにかく凄いんですよね、カメラが12個、センサーが5つ、マイクが6つついていて。映像と音を空間に応じてコントロールし、「本当にそこにいる・そこにある感」を出してくれる仕組みを備えています。
光の当たり方や影まで、リアル空間に合わせた形でバーチャルな映像を出すことができ、音に関しても、AirPods同様に空間オーディオに対応していて、例えば、狭い部屋でZoomで話をすると、相手の声が反響するんです。空間のセンシングをしていて、本当にそこに人がいたら反響するよね、というふうに音を作ってくれているので、自然に近い感覚でいられます。
操作性もまさに直感的で、これまでのVRゴーグルやARグラスと比較して圧倒的に高い精度で、目線や声と、指の動作で操作指示を出せるようになっています。
このセンシングの技術は他にも様々な活用の可能性があると考えられますが、場合によってはアップルが重視するプライバシーとの兼ね合いになってくる面もあるので、そこは慎重に進めていくような印象があります。
こうした未来の可能性の提示も含めて、とにかく一号機として、ものすごいことをいっぱいやってきてるんだなと感じます。
──確かにそうした凄さには圧倒されますが、一方で空間コンピューティングという概念や技術要素自体は、これまでのVR/AR/MRのデバイスでも存在してきました。決定的な違いは何でしょうか?
ついにこれまで言われてきた使用時の違和感、気持ち悪さの壁をかなり超えてきたと言えるところまで来ましたよね。その壁を超えないと民主化しない、ライフスタイルの中に入ってこないですから。
そして更に、かけてたほうが便利だよね、という域を目指す段階にきていると思います。