Apple、Vision Pro刷新を停止しAIスマートグラスに集中
Appleが混合現実ヘッドセット「Vision Pro」の大幅な刷新計画をいったん止め、AIを活用したスマートグラス開発にリソースを振り向けていることが報じられました。ウェアラブルと人工知能をめぐる国際的な競争の構図が、ここで大きく動きつつあります。
Vision Pro廉価版プロジェクトにブレーキ
報道によると、Appleは「Vision Pro」の廉価かつ軽量な新モデルの開発を進めていました。コードネームは「N100」で、2027年の発売を視野に入れていたとされています。
しかしAppleは最近、社内向けに方針転換を伝え、このN100プロジェクトからスマートグラス関連への人員再配置を進めているといいます。事実上、Vision Proの大規模な刷新は後回しとなり、次の重点領域が「メガネ型デバイス」へと移った形です。
伸び悩むVision Proと競合の存在
Vision Proは2024年2月、価格3,499ドルというハイエンド製品として華々しく登場しましたが、その後の勢い維持には苦戦しているとされています。一般向けのコンテンツが限られていることに加え、メタの「Quest」シリーズなど、より安価なヘッドセットとの競争も厳しいためです。
高価で重いヘッドセットよりも、日常的に身につけやすいスマートグラスに軸足を移すことは、Appleにとって自然な選択肢になりつつあるのかもしれません。
Appleが描くスマートグラス2段階戦略
Bloombergの報道によれば、Appleは少なくとも2種類のスマートグラスを並行して検討しているとされています。
iPhoneと連携する「N50」
1つ目はコードネーム「N50」と呼ばれるモデルです。このスマートグラスは自前のディスプレイを持たず、iPhoneとペアリングして利用する設計とされています。早ければ来年にもお披露目され、2027年の発売を目指すというタイムラインが伝えられています。
ディスプレイを省くことで、軽さとバッテリー持ちを優先しつつ、音声やセンサーを通じてiPhoneの機能を呼び出すスタイルが想定されます。スマートウォッチの「メガネ版」のような位置づけになる可能性もあります。
ディスプレイ搭載版は2028年を計画
2つ目はディスプレイを備えた本格的なスマートグラスで、2028年の登場が計画されているとされています。Appleはこのモデルの開発スピードを上げ、メタの「Ray-Ban Display」と真正面から競合させたい考えと報じられています。
今年9月には、メタのマーク・ザッカーバーグCEOが、約800ドルの一般向けスマートグラスを披露しました。内蔵ディスプレイと新しいリストバンド型コントローラーを備えたモデルに加え、アスリート向けのOakleyブランド「Vanguard」も発表されており、スマートグラス市場への本格参入を印象づけています。
AIと音声が主役に 新デバイスで見えるAppleの狙い
Appleのスマートグラスは、音声インタラクションと人工知能(AI)に大きく依存する設計になると伝えられています。つまり、画面をじっと見つめるのではなく、「話しかける」「耳で聞く」体験が中心になる可能性が高いということです。
例えば、目の前の風景についてAIに尋ねたり、メッセージの要点だけを読み上げてもらったり、必要なときだけ情報を「ささやく」ように提示してもらう――そんな日常に溶け込むインターフェースが想定されます。
一方で、先月のAppleの年次製品発表イベントでは、iPhoneのアップグレードやより薄型の「iPhone Air」が登場したものの、同社がAI競争でGoogleなどとの距離をどう縮めていくのかについては、具体的な姿が見えにくいとの見方もあります。Googleは最新フラッグシップ機でAIモデル「Gemini」の機能を前面に打ち出しており、スマートフォン分野ではAIを中心とした競争がすでに激しくなっています。
今回のスマートグラス強化は、AppleにとってAIを生かした「次の勝負どころ」をスマホの外側に求める動きとも読めます。
なぜヘッドセットではなくメガネなのか
AppleがVision Proの刷新よりもスマートグラスに注力する背景には、いくつかの戦略的な理由がありそうです。
- 価格と装着性:高価で重いヘッドセットより、軽くてかけやすいメガネ型のほうが日常使いに向いている
- コンテンツの課題:Vision Proは主流コンテンツがまだ少なく、利用シーンがどうしても限定されやすい
- AIシフト:大きな画面よりも、音声とAIアシスタントを中心にした「見えないコンピューティング」に移行したい
スマートフォンが「常にポケットにあるコンピューター」だったように、スマートグラスは「常に顔にあるコンピューター」になる可能性があります。その入口を押さえることができれば、Appleにとってはアプリ、サービス、クラウドを含めたエコシステム全体の主導権を強めることにつながります。
私たちの生活はどう変わるのか
AIとスマートグラスが組み合わさると、日常の情報の受け取り方は大きく変わるかもしれません。ナビゲーション、リアルタイム翻訳、健康管理、仕事中の通知整理など、多くの場面で「画面を見ないコンピューティング」が広がるイメージです。
一方で、カメラやマイクを搭載したメガネが街中に普及することには、プライバシーやマナーの課題も伴います。
- いつ、どこで撮影や録音が行われているのかを、周囲の人がどう把握できるのか
- 視界の中に常に情報が出てくる環境で、集中力やメンタルヘルスにどんな影響が出るのか
- 音声とAI前提のインターフェースが、すべての人にとって使いやすいとは限らないこと
Appleとメタという巨大企業の動きは、一見「ガジェット競争」のように見えますが、実際には「次の10年、私たちはどのように情報と付き合うのか」という問いそのものでもあります。Vision Proからスマートグラスへと舵を切るAppleの決断は、その流れの中で注目すべきサインと言えそうです。
Reference(s):
cgtn.com







