WWDC21基調講演から垣間見た「他の追随を許さないAppleの緻密な戦略」(本田雅一)

今年もオンライン開催となったAppleの開発者向け会議「WWDC21」が始まった。このイベントでは、秋以降にリリースされるAppleの基本ソフト(iOS、iPadOS、macOS、watchOS、tvOS)にどのような機能を搭載するのかが予告される。その情報と、開発用のベータ版基本ソフト、ツールなどを開発者に提供することで、新しい基本ソフトの能力を存分に引き出すのが目的だ。

WWDCでは、開発者向けに提供されるデバイス、あるいはアプリ側で何らかの対応が必要となるデバイスが発表される場合もある。Mac ProやPRO Display XDRなどがそうだったが、今回のWWDC21に伴うハードウェアの投入はなかった。

しかし、しっかりと見どころはあったのだ。

新OS群に見られる"Appleらしさ"

WWDCの基調講演では、Appleのほぼ全製品のプラットフォーム更新計画が発表される。個々のアップデートは、どの製品ジャンルにおいても完成度が高くなってきているだけに、根本的な機能改善よりも利用実態に合わせて使いやすさを向上させたり、ユーザーの負担を具体的に軽減したりするような機能提案が行われた。

iOS 15ではFaceTimeでのトークセッションを拡張し、動画や音楽、あるいはアプリそのものの画面を共有しながら会話が行えるSharePlay、その時々の状況に応じてメッセージや通知の受け取りをミュートしたりホーム画面のアイコンやウィジェットレイアウトを切り替えたりする集中モード、ブラウザの利用シナリオを再検討して使いやすさが増した新Safariなどが代表的な例だが、WWDCが「開発者向けカンファレンス」であることを考えると別の視点、切り口が見えてくる。

ひとつには全カテゴリのOSが、極めてタイトに統合され、ユーザーインターフェイスの見た目だけではなく、機能そのものがネットワークを通じてワイヤレスで連動するよう設計されている。そのため、iOSに実装される主要な機能(上記の改善点も含む)は、派生版でもあるiPad OS 15はもちろん、macOSの新バージョンMontereyでも利用可能だ。

さらにSharePlayに関しては、近くにあるApple TV HD/4Kも仲間に入れることができるため、トークはiPhoneで続けながら、映像は大画面で楽しむといった使い方もできる。

この辺りは、各カテゴリの基本ソフトをすべて自社で開発しているAppleの優位性と言えるだろう。昨年、macOS Big SurでmacOSのデザインや細かなアプリ仕様をiOS/iPad OSに近づけたことも製品カテゴリを超えた体験の統合をもたらしている。Mac、iPad、iPhoneを並べ、iPadを操作するだけでトラックパッドのカーソルがMacやiPhoneへと遷移し、異なるハードウェア間でもドラッグ&ドロップでデータ交換が行えるなど、随所にAppleらしさが感じられた。

もっとも、筆者がいちばん強く戦略性を感じたのは別の部分。それはプライバシー機能の強化とも関連し、デバイス内で完結できるインテリジェントな機能に表れている。後述するが、それらはApple自社製SoCの戦略とも合致するものだ。

プライバシー強化とAI的機能の強化を"セット"で提供

少し話がズレると感じるかもしれないが、今回のWWDCを前にしてiPhone/iPadの製品ラインナップからA10 Fusion搭載機が消えたことは偶然ではないと感じていた。新しいiOS/iPad OSはA12 BionicをベースのSoCとして想定しており(iPhone 6s/7/SE/iPod touchでも動作はするものの)、iOS 15の特徴を活かせるのはA12 Bionic以上を搭載したモデルとなる。

昨年、iPadが第8世代となり、A12 Bionicへと更新されたが、今年に入るとApple TV 4Kも同じSoCになった。A12 Bionicは内蔵するNeural Engineが大幅に強化、一新された世代だ。他の製品はいずれもA13 Bionic以上を搭載している。いわゆる廉価版と感じられるようなSoCが現行のどの製品にも載っていないのは、端末の中だけで主要な機能を完結させるためだ。


 WWDC21基調講演から垣間見た「他の追随を許さないAppleの緻密な戦略」(本田雅一)

たとえば iOS 15ではSiriの音声認識にクラウドを使う必要がなくなった(ちなみに全言語に対応しているわけではないが日本語には対応している)が、端末内だけで音声認識を行うためにはA12 Bionic以降のSoCが必須となる。

他にもAppleはカメラで捉えた映像の文字認識を行う機能など、これまではクラウドを通してでなければ実現できていなかった機能をオンデバイス、すなわち端末内で完結させようとしている。ただ、現時点において、全てがオンデバイスというわけではない。

まだ網羅的にどの機能がオンラインで、どの機能がオンデバイスとなるのかは調べきれていないが、例えば翻訳機能。Siriとの組み合わせでは音声認識はオンデバイスだが、翻訳はオンラインのサービスが用いられる。

しかし、Appleはこれまでも機能を可能な限りオンデバイスで実現する方向で開発を進めてきており、一連のプライバシー強化の流れの中に、SoCそのものや製品ラインナップの刷新タイミングを合わせてきているのは間違いなさそうだ。

Safariの追跡監視機能やOSレベルで追跡監視を行うATTなどの機能、それにAI的機能のオンデバイス化を、製品に使うSoCのレベルから揃えて戦略的なメッセージへとつなげている。

追随を許さない戦略性

もっとも、プライバシーの問題を傍に一旦おくならば、Androidベースでもよく似た機能を持つ製品があるじゃないかと感じる読者もいるだろう。しかし、Androidでは多カテゴリをまたがる製品間の連携で一体感をもたらすことは難しい。

今回、基調講演でデモされたような、スマートフォン、タブレット、パソコン、テレビにまたがった境目のない連携は、全ての基本ソフトを連動させて開発していなければ実現できない。

また近年、機械学習処理の応用が広がっていることを考えれば、各ジャンルのデバイスで学習した結果を統合して活用する連合学習のアプローチもAppleの方が取りやすい。オンデバイスで学習した結果を暗号化し、クラウドを通じてデバイス内で統合すればいいからだ。

同様のアプローチはHuaweiが取り組もうとしていたが、独自SoCの開発にいきづまり、またGoogleからのライセンスが受けられなくなったことにより、中国国外での競争力を失い、Appleにとってライバルになり得るのはSamsungぐらいしかいなくなってしまった。

今回フィーチャーされていた健康管理に関連した機能も含め、Apple製品全体の統合度合い、一体感が増していくと、なかなかこれに対抗できる枠組みを作っていくのは難しいだろう。

やや視点は異なるが、今月中にサービスインする予定のドルビーATMOSを使った立体音楽の配信にまつわる準備の良さからも感じる。立体編集した数1000曲の音源を用意しているというから、おそらくかなり前から準備されていた計画だ。

詳細は明らかではないが、立体音響を仮想的に実現するための信号処理(空間オーディオ)は、Apple設計のSoCが持つ信号処理機能にある程度、依存していると考えられる。

高性能なSoCを自社で開発し、その上に専用の信号処理を載せることで、接続する製品(この場合はイヤホンやヘッドフォン)の付加価値を高め、さらには自社で提供する音楽配信サービスの魅力にまでつなげる。

これだけの大きな企業が、ここまでの緻密な戦略を複数カテゴリにまたがって進められているのは、ただただ驚きというほかない。

あなたのプライバシー設定では、このコンテンツをご利用できません。こちらで設定を変更してくださいあなたのプライバシー設定では、このコンテンツをご利用できません。こちらで設定を変更してくださいあなたのプライバシー設定では、このコンテンツをご利用できません。こちらで設定を変更してくださいあなたのプライバシー設定では、このコンテンツをご利用できません。こちらで設定を変更してください
タグ: