【WWDC21】アップル新方針「オンデバイスAI強化」で攻める

【WWDC21】アップル新方針「オンデバイスAI強化」で攻める

  • ASCII.jp
  • 更新日:2021/06/10
No image

Siriは「オンデバイス処理」が基本になり、ネットワークがない時にも使えるようになった

今回のWWDCでの発表を見ると、「オンデバイスAI」の価値が高まっているのに気づく。AI(機械学習)系の処理といえば、これまではクラウドと連携して圧倒的なデータ量を活かすもの……という印象もあったが、もうそうではない。

この変化はアップルだけの傾向ではないのだが、アップルは特に一気呵成に攻めてきた。その背景こそが、今年のアップルを考える上で重要なことなのではないか、と考えている。

Siriから写真まで、オンデバイスAIが活躍

秋に公開される新OSから「オンデバイスAIで強化される」機能はたくさんある。

まずわかりやすいのは「Siri」。これまでは特定のタイミングでのみデバイス内で処理されていたが、これからはデフォルトでデバイス内の処理に変わる。結果として、メッセージを送信する場合や、あまり使われない命令への反応に必要な情報を得る場合を除くと、音声認識も合成も、そして「判断」もネットを介さずに行われるようになった。

No image

そうなると、飛行機の中などで通信ができない時にもSiriが使えるようになるし、ネットを介さない分反応が速くなって使い勝手も上がる。

iOSやiPadOSのSiriもそうだが、HomePodやApple TVなどのホームネットワーク機器でもSiriはオンデバイスになる。これは、機器連携をする上で確実にプラスだ。ネットワークが仮に落ちても、Siriからの操作ができることになるからだ。なお、Siriは今後ホームネットワークで、サードパーティでの活用が可能になっていくが、その際もサードパーティ側のサーバーにはアクセスせず、Siriネットワークのみを使う。こうした点は、速度だけでなく安定性にも寄与する。

オンデバイス、という意味では「写真」もそうだ。意外と知られていないが、アップルは以前より、画像系の処理を「できる限りオンデバイス」で行なうことを基本としてきた。Googleフォトがクラウドに写真を蓄積し、クラウドのパワーを使うことを前提としたこととは対照的である。

iOS 15では、特に写真の分析・分類についていろいろな機能強化が図られている。その最たるものが、画像内の文字を「テキスト情報」に変える「Live Text」だ。日本語に対応していないのが残念だが、これも文字認識のロジックをダウンロードした上で、オンデバイスで処理される。

No image

画像からテキスト情報を認識する「Live Text」もオンデバイス処理で動作している

少し意外かもしれないが「写真」という意味では、ホームネットワークの新機能でも使われている。自宅にドアカメラがあり、それがアップルのホームネットワークと連携する場合、画像から「置き配」の荷物が玄関に届いたことを検知する機能がある。

No image

ホームネットワークでカメラ連携を使い、「置き配」の到着を認識して通知する機能も登場

No image

どうやらこの機能、カメラ側のAIでもクラウドのAIでもなく、HomePodやApple TVといった、HomeKit対応ホームネットワークのハブになるデバイスの「オンデバイスAI」で荷物の形を認識して、通知を出しているようだ。スピーカーのオンデバイスAIでホームネットワークが進化する、というのはおもしろい。

No image

「通知」のサマリー機能は有用な新機能だが、これもまたオンデバイスAIの所産である

「通知のサマリー」にもオンデバイスAI

細かい話をすれば、ほかの新機能の中にもオンデバイスAIの恩恵を受けているものもある。

iOS 15/iPadOS 15では「通知」が改善され、見ていなかった間のものが「サマリー」として表示されるようになる。なんということのない機能に思えるかもしれないが、これをちゃんと実用的に運用するには、やはりAIが必須になる。なぜなら「どの通知が重要なのか」を、過去のその人の行動から判断する必要があるのだ。これもまた、オンデバイスAIで処理されている。

通知のサマリーをなぜオンデバイスでするのか? それは「プライバシー上の問題」があるからだ。

メッセージの内容もそうだが、どんなアプリの通知が出るかも、非常にプライベートで個人の趣味趣向が絡んでいる。アプリでサービスをしている人々から見れば喉から手が出るほど欲しい「機微情報」だが、それを「渡したい」と思う人は少ないはずだ。情報を扱う側、という意味ではアップルも例外ではない。

こうした機能を安心して使うにはどうすべきか? 結局は、判断のために情報をネットにアップすることをせず、オンデバイスですべての処理を完結させることが、事実上必須なのである。

アピール面で「プライバシー」の旗印を持つアップルは強い

アップルがなぜ「オンデバイス処理」を推し進めるのか?

それは、応答性をあげるという「使い勝手」の部分もあるが、やはり究極的には「プライバシー保護」という側面が大きい。データ収集と集積には許諾が必要で、それはユーザー側にとって負担になる。それだけでなく、学習のためという名目で際限なくデータを集め続けることは、サービスを運営する企業側にとっても負担だ。

現在は、オンデバイスでAIの推論をするだけでなく、学習などもオンデバイスで行えるようになった。そこから得られた「学習モデルを成長させるために必要なデータ」のみを吸い上げ、さらに機能改善を進められる。その種のデータはすでに「個人を特定する情報」ではなくなっているから、プライバシーの問題も起きづらい。

冒頭でも述べたように、オンデバイスAIへの移行や学習データのみの吸い上げによる進化は、アップルだけがしているものではない。データを個人のデバイスに分散させたまま学習を進める方法を「Federated learning」というが、そもそもFederated learningを提唱したのはグーグルである。

どこも同じ方向に向かいつつあるが、その中でストレートに「プライバシーを守ることは基本的人権に属すると考える」とまで話しつつ機能をアピールするのはアップルらしい。

No image

(なお、今年のGoogle I/Oでのアピールも、似た側面があったという印象を筆者は感じている)

逆にいえば、こうしたオンデバイス処理を加速するには、デバイスのプロセッサー側に機械学習の推論と学習を効率的に処理する機構が必須になる。今のアップルの半導体にはそれが備わっているが、オンデバイスで扱うことが多くなっていくと、その部分の回路の性能がより重要になっていく……という結果にもつながる。

今回、iOS 15やiPadOS 15の動作対象機種は過去から大きな変化がなかったが、技術の方向性を考えると、機械学習系コアを強化しはじめた2017年登場の「A11 Bionic」搭載の機器(iPhone 8世代)あたりが、今後も長く使われるラインになるのではないか……と予想している。

No image

筆者紹介――西田 宗千佳

1971年福井県生まれ。フリージャーナリスト。 得意ジャンルは、パソコン・デジタルAV・家電、そしてネットワーク関連など「電気かデータが流れるもの全般」。主に取材記事と個人向け解説記事を担当。朝日新聞、読売新聞、アエラ、週刊東洋経済、月刊宝島、PCfan、YOMIURI PC、AVWatch、マイコミジャーナルなどに寄稿するほか、テレビ番組・雑誌などの監修も手がける。近著に、「ソニーとアップル」(朝日新聞出版)、「ソニー復興の劇薬 SAPプロジェクトの苦闘」(KADOKAWA)などがある。

■関連サイト

アップル

西田 宗千佳 編集●飯島 恵里子/ASCII

この記事をお届けした
グノシーの最新ニュース情報を、

でも最新ニュース情報をお届けしています。

外部リンク

  • このエントリーをはてなブックマークに追加