意外!「アップルがAIを信用しない」たった1つの理由

意外!「アップルがAIを信用しない」たった1つの理由

  • 現代ビジネス
  • 更新日:2018/06/14
No image

独自のAI観をもつアップル

この記事を書いているのは2018年6月9日。筆者は現在、アメリカ西海岸にいる。6月に相次いで開かれるテクノロジー系イベントと、それに関連して現地を訪れる人々を取材することが目的だ。

一般の人々からの注目が特に集まっていたのは、アップルの年次開発者会議「WWDC(Worldwide Developers Conference)」だろう。WWDCでは毎年、同社がその年の秋に公開する新製品に用いられる各OSの新バージョンの情報が公開されるためだ。

アップルといえば、いまやiPhoneの会社。新OSの内容がわかれば、新iPhoneの動向もつかめるし、アップルという会社の今後の方向性も見定めることができる。

No image

写真01 WWDCが開催されたサンノゼ・コンベションセンター

そこで今回は、発表されたばかりの新OS「iOS12」の機能から、アップルが今後向かうであろう方向性、特にAI(人工知能)に対する姿勢を考えてみたい。

大量のデータに支えられたAIはいまや、GoogleやAmazonをはじめとするテクノロジー・ジャイアントのコアテクノロジーになっている。だが、アップルのAIに対する姿勢は、他の大手IT企業とは異なる部分があり、そこが同社の未来を占ううえで、きわめて重要なポイントだと考えている。

No image

写真02 iPhone用OSの次バージョンは「iOS12」。例年どおり、秋に無償公開される

「何が発表されなかったか」に注目すべし!

アップルの新方針を考えるうえで、特に今年は、「何が発表されたか」よりも「何が発表されなかったか」に注目すべきだ。筆者を含め、多くのIT関連ジャーナリストが予想していた発表が、今回は行われなかったからである。

その発表とは、スマートスピーカー「HomePod」のOSや機能に関する拡充だ。

スマートスピーカーとは、Amazonの「Echo」やGoogleの「Google Home」のような、音声アシスタントを使って操作する機器の総称である。AmazonやGoogleは、2016年頃からこのジャンルで激しい競争を繰り返しており、昨秋には日本でも製品発売が行われた。

アップルもまた、昨年のWWDCで「HomePod」を発表し、今年の2月から、アメリカ、イギリス、オーストラリアで出荷を開始しているが、他の大手に比べて2年ほど遅れをとっている状況だ。日本での発売予定は、まだ公表されていない。

そのHomePodの売れ行きが、芳しくない。

理由のひとつは価格面だ。他社が40ドルという安価な機器もラインアップしている一方で、HomePodは349ドルとかなり高い。

加えて、音声アシスタントである「Siri」の機能が、Amazonの「Alexa」やGoogleの「Googleアシスタント」に劣っているうえ、連携できる家電機器の量においても水をあけられているからだ。

そこでアップルは今回、HomePodの機能向上をアピールするために、「audioOS」とよばれるOSとSiriを改良し、低価格版を投入するのでは……と、予想されていたのである。

HomePodにテコ入れをしないのが長期的な展望とは思えない。しかしアップルは今回、音声アシスタントに関して「他社とは同じ方向に行かない」ことを暗に示したのではないか──、筆者はそう考えている。

日常的な作業を自動化する新機能「Shortcuts」

新たに発表されたiOS12には、Siriを使って、日常生活を楽にする機能が盛り込まれている。注目すべきは、この機能が、Siriだけを使って実現されたものではなく、新しく追加された機能である「Shortcuts」を併用したものである点だ。

技術の話を先にするより、どんなことができるのか、具体例を先に示したほうがわかりやすいだろう。

アメリカのコーヒーショップでは、専用アプリを使って事前に予約注文を行い、できあがる頃に店に取りにいけるようになっている。たとえば朝、出勤前にアプリで事前に注文しておいて、行きがけに店に立ち寄ってそのコーヒーをピックアップし、会社にもっていって飲む、といったことができるわけだ。

その人はおそらく、毎日同じような時間に同じコーヒーショップのアプリを使い、好みに応じて同じ商品を注文していることが多いだろう。するとSiriは、iPhone内の行動履歴からユーザーの習慣を分析し、次のように語りかけてくるようになる。

「いつものコーヒーを注文しておきましょうか?」

No image
No image

写真03、04 Siriが「あなたが毎朝注文しているコーヒー」を覚え、その内容をサジェスチョンしてくれる

別のパターンもある。

仕事を終えて自宅に帰る際に「帰宅する」とSiriにいえば、退勤時にいつも聞いているネットラジオを自動再生し、同時に、家族宛には「あと何分で帰るよ」とメッセージを送ってくれたうえで、自宅の室温を適温に調整してくれるのだ。

No image

写真05 iOS12では、帰宅途中にスマホで行うことを一連の流れとして記憶したうえで、「帰宅する」とSiriに話しかけるだけで自動実行してくれる

持ち主の行動習慣を把握するSiri

このような機能は、どう実現されているのか?

SiriのAIとShortcutsが協調して働いているのだ。

Siriは、ユーザーがiPhoneを携帯しているときに行った行動を記録している。いつどこで、どんなアプリを使ったか、どんなメッセージを送り、どんなスケジュールを過ごしたか……。これらすべてを把握している。だから、ユーザーが同じ時間に同じような行動を繰り返していると、「この人はこれを繰り返すのだな」と考え、機能を提案してくるのだ。

さらに、Siriのこの機能を最大限に活かすために必要なのが、新たに登場したShortcutsだ。

Shortcutsは、複数のアプリを使う作業を「まとめる」役割をはたす。決して難しいことをやっているわけではなく、先ほど挙げた帰宅の例でいえば、「ネットラジオの再生」「メッセージの送信」「自宅の温度計を確認」という一連の操作を順々に実行しているにすぎない。それをiPhone内で記録し、連続して行うのがShortcutsである。

実はこの機能、2017年春にアップルが買収した企業がもっていた「Workflow」という技術を活用したものである。

No image

写真06 iOS12の新機能「Shortcuts」。アップルが昨年買収したWorkflowという技術をもとに、新OSの標準機能として組み込んだ。「Morning Routine(毎朝の習慣)」などの一連で実行される機能が表示されている

私たちは日常的にさまざまな行動をとっているが、それらすべてが日々新しいものであるわけではなく、いわゆるルーチンワークも多く含まれている。SiriとShortcutsの協働によるこれらの機能は、それを省力化・ワンアクション化してくれるものだ。

もはやiPhoneの画面に触れる必要すらない。「ヘイSiri、帰宅するよ」「ヘイSiri、いつものコーヒー」といえば、あとはルーチンワークをiPhoneが自動的にやってくれるのである。

アプリ開発者の“協力”が不可欠

いかにも便利な新機能だが、問題が2つある。2つの問題はまったく別の意味合いをもっており、それぞれに深刻だ。

ひとつめは、「ルーチンワークを自動的にこなすよう命令するのは大変だ」ということである。「ルーチンワークを自動化する」とは、すなわち、やるべきことを次々につなげて実行する、ということである。

これは、一種の「プログラミング」といえる。コンピュータには例外なく、「ルーチンワークを自動化する技術」があり、ソフトをつくるためのプログラミングは、その最たるものだ。

一方、人間の行動は案外、論理的とは限らない。プログラミング的な思考は、訓練の末にようやく身につくものであり、ほんの3〜4個の単純作業を並べるだけでも多くの人は戸惑いを覚え、難しいと感じるものだ。Shortcutsを操作して、「よくやること」を自分で並べて自動化するのは、ほとんどのユーザーにとってはかなりハードルの高い作業になるだろう。

このことは、アップルも十分に理解している。そこで考案されたのが、Siriによる提案機能と、アプリ自身が備える機能の組み合わせだ。

アプリ開発者は、自分たちの提供するアプリに「Siriが提案する際に使用していい機能」を指定できるようになっている。Siriはその機能を用いることで、ユーザーの行動履歴から「この人はこういう作業を連続してやりたいはず」という内容を提案できる。また、これによってアプリ内での一連の動作をまとめてShortcut化することも可能だ。

このしくみを使うことで、Siriの提案に従って「毎日飲むコーヒーの注文を一発で行う」こともできるわけだ。別の例として、旅行予約アプリで旅の予約をした後に、「旅程を呼び出す」という命令をアプリからSiriに登録できるサービスがある。Siriに「旅程を教えて」と話しかけるだけで、アプリを開くことなく、次のフライトの予定や、ホテルの名称・場所などの情報を知ることができる。

No image
No image

写真07、08 旅行予約アプリの例。予約が終わると「Siriへ登録」というボタンが登場する。登録しておけば、あとは「旅程を教えて」と話すだけで、適切な情報が表示されるしくみだ

アップルとしては、このようなアプリの連携によるShortcut設定を基本に据えており、ユーザー自身が自らプログラムを組むようにShortcutをつくることは「こだわる人だけがすること」と位置づけているようである。

アップルはなぜ、AIを信用しないのか?

細かな設定が苦手な人には一安心だが、2つめの問題がまだ残っている。結局、アプリを供給する側がきちんと対応していないと、Shortcutsによる自動化はかえって面倒になる可能性があることだ。

アップルが、煩雑にも思えるこのような手段を採ったのは、じつは彼らが、“AIの判断”をまだ信じていないからである。

ユーザーの行動履歴を確実に分析できているのであれば、アプリ開発者の協力がなくても、スマホ上での操作をAIが自動的に「まとめて」くれればいいはずだ。実際にGoogleは、そういう世界を指向しているように思える。

だが、現在のAIは、人間の代わりにアプリを使えるほどには賢くないのが実情だ。画像に写っているものが何かを判別したり、音声の内容をテキストに変換したりする能力は飛躍的に高まっているが、人間のように思考してふるまえるわけではない。

一方で、「この時間にこのアプリを使っていた」という程度のシンプルな情報から「その時間に使うべきアプリを指示する」くらいはできるのだから、アップルはアプリ開発者の協力を得て、動作を自動化するアプローチを採ったのではないか──。そう理解することができるのである。

アップルはなぜ、AIの判断を信用していないのか。その理由は、アップルの「プライバシー・ポリシー」にある。

アップルはプライバシーの確保について、他社よりも厳格な基準を定めている。今回のWWDCでも、ウェブブラウザー「Safari」について、広告サービスやSNSが個人のネット上での行動をトラッキングすることを防止する機能の搭載が発表された。

この機能は、企業名こそ明示されていなかったものの、昨今プライバシー保護関連で指弾されることの多い、Facebookを意識したものだ。

また、iPhoneやiPadをはじめとするアップル製品では、画像認識やSiriによる音声認識、AIの挙動を含め、多くの情報処理が各端末の内部で行われており、アップルのサーバーを介する部分が非常に少ない。クラウド上に画像などを保存するのは、あくまで「利用者が、自分で使う機器の間で情報を共有するため」であり、アップルが認識に使うためではない。したがってアップルは、そのデータを覗くことができない。

一方、GoogleやFacebookは、個人との利用許諾に基づくものであるとはいえ、ユーザーが保有するデータをクラウドの向こう側に保存し、AI的な処理に利用している。

AIの学習用データの収集に強い制約をかけ、各ユーザーの端末内にあるデータは可能なかぎりその中だけで使い、必要に応じて収集したデータも、個人が特定できないよう、厳密なルールで用いる──これが、アップルの方針だ。競合他社も、それぞれにプライバシーに配慮はしているが、アップルはより厳密な制約をかけている。

このやり方は、AIの学習を促進し、より賢い反応を引き出すには向いていない。アップルのSiriが他社に比べて能力的に劣るといわれるのは、このプライバシー保護の方針が原因のひとつといわれている。

No image

写真09 ユーザーの個人データ収集に制限を設けていることが、アップルのAIの進化を妨げている!?

アップルがこうした方針を貫く理由は、ユーザーに安心してもらうためだ。一方で同社は、広告で儲けるビジネスモデルを採用しておらず、基本的にはiPhoneやiPadといった「製品を売って稼ぐ」モデルとなっている。だから、他社のように必死になって個々のユーザーの一挙手一投足を詳細に分析し、広告に結びつける必要には迫られていない。

このような背景があるからこそ、アップルはAIの機能強化において無理をせず、アプリ開発者と協力する道を選んだのではないか。進境著しいAIの機能強化も、結局は開発に挑む各企業のビジネスモデルに依存する部分が少なくない、ということだ。

この記事をお届けした
グノシーの最新ニュース情報を、

でも最新ニュース情報をお届けしています。

外部リンク

Appleカテゴリの人気記事

グノシーで話題の記事を読もう!
アップル iPhone SE2開発中止へ
iOS11.4.1、tvOS11.4.1のベータ3が公開
【あの人の愛用品】お笑い芸人・矢部太郎さんのiPad
Huawei P20 lite いきなりTOP5にランクイン! スマートフォン ランキング 2018/6/18
iOS 12とAndroid P、どっちが楽しみ? 期待度で五番勝負!
  • このエントリーをはてなブックマークに追加