アップルはスマートグラスを作るため技術を仕込んでいるのでは、という気になった #WWDC20

アップルはスマートグラスを作るため技術を仕込んでいるのでは、という気になった #WWDC20

  • ASCII.jp
  • 更新日:2020/07/01
No image

Jesus Kiteque

先週、アップルはWWDC(世界開発者会議)をオンラインで開催した。

ここ数年、「アップルがスマートグラスを出すのではないか」という噂が絶えないが、残念ながら今回のWWDCで製品が披露されることはなかった。しかし、基調講演を見ていると、「アップルは将来、スマートグラスを作るために様々な技術を仕込んでいるのではないか」という気にさせられた。

では、具体的にどんな技術が、アップル製スマートグラスのベースとなるのか。WWDCでの発表を振り返ってみたい。

■ARコンテンツのための「空間オーディオ」

まず、注目はワイヤレスイヤホンのAirPods Proだ。基調講演でAirPods Proのアップデートが発表されるとは予想外の展開であった。

AirPods Proはアップデートにより「空間オーディオ」に対応する。

これにより、5.1chや7.1chサラウンド、Dolby Atmosなどのコンテンツを視聴する際、立体的な音響を楽しめる。

ただ、AirPods Proのアップデートで興味深いのは、内蔵した加速度センサーにより、頭の動きを把握し、音の出所をずらさないように出せるようになることだ。

単にiPhoneやiPad、テレビで映画やドラマを見る際、立体音響として聴こえれば、何も、加速度センサーを使って頭の動きまで感知する必要はないだろう。常に画面に対して、正面から見て、左右の音を聞いているのだから、頭はさほど動かない。

しかし、これがARコンテンツだったら、話は変わってくる。iPadなどでARコンテンツを視聴しつつ、AirPods Proで音を聴く場合、iPadを持ちながら、部屋を自在に移動することも想定される。その際、頭の方向は360度、動いてしまう。そこで役立つのが加速度センサーによる検知だ。これにより、ユーザーがどこを向こうと、きっちりと決められた方向から音が出るようになる。

まずはiPadでARのゲームを楽しむ際に利用されるだろうし、将来的にはスマートグラスをかけつつ、AirPods Proを装着することで、立体感がありつつ、動き回っても決められた方向から音が聞こえるようになるはずだ。

AirPods Proでは強力なノイズキャンセル機能が搭載されている。ノイズキャンセルをかけつつ、空間オーディオを適用させれば、まさにARの世界への没入感は半端ないはずだ。

■アプリを起動するための「App Clips」

もう一つ、基調講演で「これって、スマートグラス向けなのかな」と気になったのが、App Clipsだ。

App Clipsは、街中にQRコードやNFCのタグを設置。それをiPhoneで読み込ませると、小さなアプリがダウンロードされ、すぐに利用できるというものだ。

ここ数年、様々な店舗などが、社でアプリを作っているものの、なかなかユーザーにダウンロードしてもらえない。そこで、アップルとしては、アプリ市場を活性化させるため、こうした仕組みを用意して、アプリデビューをしやすいように促したいのだろう。

App Clipsでは「Sigh in with Apple」という、Apple IDでスムーズに会員登録できる機能に対応。さらにApple Payも使えるようになっている。つまり、街中でApp Clipsを見つけたら、その場で会員になり、支払いも完結ということが可能なのだ。

たとえば、街中にあるレンタル自転車にApp Clipsがあれば、iPhoneで読み込み、会員登録と決済がその場で完結し、すぐに自転車に乗れてしまうというわけだ。

アップルでは「App Clipsコード」というアップル独自のQRコードを企画している。

そこで、気になったのが「なぜ、QRコードを用意しているのか」という点だ。

■ジェスチャー機能で決済も?

App ClipsはNFCタグやQRコードなどが対象となっている。iPhoneを前提とすれば、NFCだけ対応していればいいのではないか。ここ最近のiPhoneなら、ほぼほぼNFCタグを読むことは可能だ。かざせばすぐに反応するNFCさえあればいいように思える。

確かに、NFCタグはコストがかかり、印刷するだけで済むQRコードに対応していた方がいいのはわかっている。ただ、わざわざアップルが独自のQRコードを作る必要がどこまであるのか。

そこで、ふと浮かんだのが、将来、投入するであろうスマートグラスへの準備だ。

スマートグラスには当然、カメラが搭載されるだろう。街中で、スマートグラスのカメラがApp Clipsコードを読み込むことで、アプリが起動するようになったら、相当、便利ではないか。

ユーザーがスマートグラスでApp Clipsコードを見ることで、アプリが起動。ユーザー認証を「Sign in with Apple」、決済を「Apple Pay」でできれば、ユーザーは何も手で操作する必要はない。もちろん、App Clipsコードを見ただけで買い物をされてしまってはたまらない。

今回、アップルは、ARKitで手の動きなどを読み取る機能を盛り込んでいる。たとえば、親指で立てて「いいね」というジェスチャーをスマートグラスに読み込ませれば、ユーザーがOKを出したということで、決済が完了するというユーザーインターフェースも現実味を帯びてくる。

■今までにない便利で面白いスマートグラスが誕生するのでは

今年春に発売となったiPad Proでは、レーザーが物体に反射して戻ってくる時間によって距離を測る「LiDAR」センサーが搭載された。これにより、ARにおいて物体や空間の認識が格段に向上した。

LiDARセンサーはiPad Proのみならず、今年秋に発売されるであろうiPhoneの新製品にも搭載される可能性が極めて高い。

LiDARセンサーによって空間を認識し、AirPods Proによって空間オーディオを実現。App Clipsコードによって、カメラでアプリを起動する仕組みを用意したアップル。

これらを組み合わせるだけでも、今までにはない便利で面白いスマートグラスが誕生するのではないか。

No image

筆者紹介――石川 温(いしかわ つつむ)

スマホ/ケータイジャーナリスト。「日経TRENDY」の編集記者を経て、2003年にジャーナリストとして独立。ケータイ業界の動向を報じる記事を雑誌、ウェブなどに発表。『仕事の能率を上げる最強最速のスマホ&パソコン活用術』(朝日新聞)など、著書多数。

石川温 編集● ASCII

この記事をお届けした
グノシーの最新ニュース情報を、

でも最新ニュース情報をお届けしています。

外部リンク

  • このエントリーをはてなブックマークに追加