スマートグラスという市場に、ひとつのシグナルが届いた時、競争の構図は変わります。2025年のXR出荷市場でスマートグラスが過半数を占め、Ray-Ban Metaを擁するMetaが72%超のシェアを握るこの市場に、最後の大きな空席がある——Appleというプレイヤーです。Bloombergのテックジャーナリスト、Mark Gurmanが報じた計画は、Appleが2026年秋に発表し2027年初頭に発売するスマートグラスの輪郭を伝えています。ディスプレイを持たないAI連携の眼鏡として、Appleはどんな賭けに出ようとしているのか。その意味を、市場の実像とともに読み解きます。
Appleが2026年秋の発表、2027年初頭の発売を目標に、スマートグラスを開発していることが複数の報道で明らかになっている。Bloomberg記者のMark Gurmanによれば、発表時期は9〜10月を想定しており、ホリデーシーズン前にMetaの勢いを削ぐ意図があるとされる。
製品はApple Vision Proのような空間コンピューティング機器ではなく、通常の眼鏡に近いフォームファクターのウェアラブルだ。カメラ・スピーカー・マイクを内蔵し、Bluetooth経由でiPhoneとペアリングするiPhoneアクセサリーとして機能する。Apple Watch由来のカスタムチップ「N401」を搭載し、AI駆動の次世代Siriを軸に操作する設計だ。
フレームはアセテート素材で4種類のデザインをテスト中。Ray-Ban Wayfarer風の大型長方形、楕円形、Tim Cookが着用するスリムな長方形、小ぶりな楕円形が候補に挙がる。カラーはブラック・ライトブラウン・オーシャンブルーで、フレームの設計はMetaがRay-BanやOakleyと組むのとは異なり、Appleが自社開発する。カメラは縦長の楕円形で、「一目でApple製品とわかるデザイン」を目指すという。価格帯はMetaの$299〜$499と競合する水準が見込まれる。
市場背景として、IDCの2026年3月データによれば、2025年のグローバルXR出荷台数は前年比44.4%増で、その成長の大半をスマートグラスが担っている。現時点でMetaが72.2%のシェアを握る一方、VR・MRヘッドセット出荷は大幅に減少した(Meta Questは42.3%減)。
From:
Apple smart glasses: Everything you need to know
【編集部解説】
Gurmanの一文が指す「クリティカルパス」
Bloombergのテックジャーナリスト、Mark Gurmanは、Appleのスマートグラス計画について繰り返し同じ指摘をしています。「彼らはこのスマートグラスをまともに機能させるために、新しいSiriを世に出す必要がある」。
この一文は、表面的にはハードウェアとソフトウェアの依存関係を述べているにすぎません。しかし2026年のApple AI戦略全体を俯瞰すると、ここで言われているSiriこそが、複数のプロダクトが乗っかる「橋」であり、その橋がまだ完成していないことが見えてきます。
スマートフォンであれば、音声アシスタントが期待通りに動かなくても、ユーザーは画面をタップしてアプリを起動できます。タッチUIへのフォールバックがある。ところがディスプレイを持たないスマートグラスは構造的にこの逃げ道を持ちません。眼鏡という常時装着可能なフォームファクターでハンズフリーに価値があるからこそ存在する製品で、ユーザーはレンズに触れて操作することは想定されていません。音声、視線、わずかなジェスチャー——これらが入力のすべてになります。だからこそ「Hey Siri、いま見ているレストランの口コミは?」「会議の前に資料を要約して」といった自然言語での複合的な依頼を、誤解なく実行できる対話型AIが大前提になります。
約束されたSiriが、約束されたまま2年が過ぎた
そのSiriが、2026年4月時点でまだ完成していません。
時系列を整理します。2024年6月のWWDC 2024で、AppleはApple Intelligenceを発表し、その目玉として3つの新Siri機能を披露しました。ユーザーの端末上の情報を理解する「Personal Context」、画面表示内容を把握する「On-Screen Awareness」、複数アプリをまたいでタスクを実行する「App Intents」です。iPhone 16の販促キャンペーンの中心に据えられた機能群でした。
しかし2025年3月、Appleはこれらの機能を延期すると発表します。同年6月のWWDC 2025基調講演では延期を短く告げ、その後のメディアインタビューでFederighiはV1/V2アーキテクチャの詳細を明かしました。「V1アーキテクチャの限界が、私たちが顧客のために必要だと知っていた品質水準に達しないことが判明した」。Apple社内でフルスクラッチに近い「V2」アーキテクチャへの切り替えを決断したのです。
2026年春のiOS 26.4で再ローンチが目標とされましたが、2026年2月には再び一部機能のiOS 26.5またはiOS 27への先送り報道が出ました。iOS 26.4での部分実装も一部で報告されたものの、対話型のフル機能版Siriは依然として「2026年内のいつか」に置かれたままです。Gurmanはこの完全版Siriが、複数の小ぶりな機能を積み増す通常の年次更新ではなく、基盤を作り直す「Snow Leopardモーメント」になるiOS 27(2026年9月予定)で本格化すると分析しています。
WWDC 2024で約束された機能が、約束された姿で世に出るまで、延べ2年以上が経過することになります。
2026年1月、自前路線からの方針転換
そして2026年1月12日、Appleは静かに——しかし戦略的には激震レベルの——意思決定を公表します。Googleとの複数年提携の発表でした。
両社の共同声明は短く、しかし内容は明確です。「次世代のApple Foundation Modelsは、GoogleのGeminiモデルとクラウド技術を基盤として構築される」。両社の共同声明で、Appleは「careful evaluation(慎重な評価)の結果、GoogleのAI技術がApple Foundation Modelsにとって最も有能な基盤を提供すると判断した」と説明しました。Apple Intelligence機能はApple端末とPrivate Cloud Compute上で動作し続けるとも明記されています。
Bloombergは契約規模を年間約10億ドルと報じている。OpenAI、Anthropicも検討された末の選択だったと伝えられています。
そして本記事作成時点からわずか2日前、2026年4月22日。ラスベガスで開催されたGoogle Cloud Next 2026の基調講演で、Google CloudのCEOであるThomas Kurianが舞台上で公にしました。「Appleと協業し、彼らの優先クラウドプロバイダーとして、Gemini技術をベースとした次世代のApple Foundation Modelsを開発しています。これらのモデルが、今年後半に登場するよりパーソナライズされたSiriなど、将来のApple Intelligence機能を支えることになります」。
つまり、2026年内に登場する完全版Siriは、Appleが10年以上自社開発してきたものではなく、Geminiという外部の巨大モデルを土台にしたものになります。
スマートグラスの発売時期は、Siriのスケジュールに釘付けされている
ここで、スマートグラス発売計画の時間軸とSiriのスケジュールを並べてみます。
- 2026年6月:WWDC 2026 — iOS 27とフル機能版Siriの発表が見込まれる
- 2026年9月:iOS 27リリース — 完全版Siri(対話型LLM)の搭載予定
- 2026年9〜10月:Appleスマートグラス発表(Gurman予測)
- 2027年初頭:Appleスマートグラス発売(Gurman予測)
順番が示しているのは、Appleのスマートグラス計画がiOS 27のSiriに完全に同期しているという事実です。発表をホリデーシーズン直前に置く意図はMetaのモメンタムを削ぐためとされていますが、それはあくまで戦術的なタイミングであって、構造的にはSiri完成を待たなければ発表すらできません。
そして発売を2027年初頭に置いた意味は、iOS 27のSiriが現実のユーザー環境で数か月走り、明確な不具合が表面化した場合に手当てする時間を確保しているとも読めます。Appleが過去2年でSiriの遅延を繰り返してきた事実を踏まえると、これは合理的なバッファ設計です。逆に言えば、もしiOS 27のSiriがWWDC 2025での再延期と同様の事態を再びたどれば、グラスの発売も連動して遅れることになります。「Siriを世に出さなければグラスは機能しない」という指摘は、単なる技術的依存の話ではなく、Appleの2026〜2027年プロダクトロードマップ全体がSiri一点に懸かっているという経営的事実の表明なのです。
競合は「動くAI」をすでに顔に載せている
Appleがこの綱渡りに集中している間、競合プレイヤーたちはすでに次のステージにいます。
Metaは2025年から第2世代のRay-Ban Metaグラスで、Llama 4ベースの音声アシスタントを稼働させています。「Hey Meta」と話しかけるだけで通話・SMS・写真撮影・物体認識・リアルタイム翻訳が使え、2026年初頭には騒がしい環境で会話相手の声を増幅する「Conversation focus」、視覚障害ユーザー向けの詳細な環境描写機能なども追加されています。
Googleもまた動いています。2026年中にAndroid XRベースのスマートグラスを発売する予定で、ハードウェアパートナーはWarby ParkerとGentle Monster。AIアシスタントは当然Geminiです。最大のパートナーであるSamsungも2026年後半(8月前後)にGalaxy Glassesを発売予定で、こちらもGemini AI + Android XR構成です。
つまり、Appleが2027年初頭にスマートグラスを市場投入する頃には、MetaはRay-Ban Meta第3世代も視野に入り、Google陣営もすでに数か月の市場経験を積んでいる、という構図が見えてきます。
ここで皮肉なのは、Appleが新Siriの土台に選んだGeminiが、競合のGoogleグラスとSamsungグラスを動かしているAIと同じ系譜だという点です。GoogleとSamsungが同じGeminiでハードウェアとAIをガッチリ統合する一方、AppleはGeminiの上に独自のApple Foundation Modelsレイヤーを載せ、Private Cloud Computeで囲い込んだ末に、ようやくスマートグラスに届ける——という遠回りの構造を抱えています。
構造的なジレンマ:プライバシー設計とAIスケールの矛盾
しかしこの遠回りには、Appleにとって譲れない理屈があります。
Appleは長らく「オンデバイス処理」と「プライベートクラウドコンピュート」をAIアーキテクチャの基本原則として掲げてきました。スマートグラスは常時カメラ・マイクを伴う製品で、プライバシー懸念はスマートフォン以上に大きくなる。Metaがケニアの下請け業者にRay-Ban Metaグラスで撮影された生映像(トイレや性行為を含む)をデータラベリング委託していたという報道は、この市場が抱えるリスクの典型例です。録画インジケーターLEDが本体の物理的改造で無効化できることも別途報告されています。
Appleがこの局面で「Geminiを直接呼び出す」のではなく、「Gemini技術を土台にしたApple Foundation Modelsを構築し、それをPrivate Cloud Compute上で動かす」という設計を選んだのは、外部AIへの依存という現実と、自社のプライバシー原則を両立させるための妥協点なのでしょう。「rawなユーザークエリはGoogleに送らない」という設計が確認されています。
このアーキテクチャの複雑さこそが、Apple Intelligenceの開発が2年遅れた本当の理由かもしれません。MetaやGoogleが「クラウド上の巨大LLMにそのまま投げる」ことで実現したスマートグラス上のAI体験を、Appleはプライバシー原則を維持したまま再現しようとしている。そのために自前モデルを諦めてGemini技術への依存を選びつつ、それをApple側のレイヤーで包み直す。技術的にもオペレーション的にも、相当な複雑性を抱える選択です。
スマートグラス発売を2027年初頭に置いたAppleの賭けは、こう要約できます——「最後に出ても、Siriのプライバシー設計と、iPhoneを中心とした統合体験で勝つ」。それが正しい賭けなのかどうかは、iOS 27の出来栄え、そして発売後の数か月で見えてくることになります。なぜGurmanがあれほどSiriの完成を強調したのか、私たちは発売までの数か月間、iOS 27の挙動を通して少しずつ読み解いていくことになりそうです。
【用語解説】
Apple Intelligence
Appleが2024年に発表した生成AI統合機能の総称。テキスト要約・画像生成・音声対話など複数の機能を束ねる。オンデバイス処理を基本とし、複雑な処理はPrivate Cloud Computeに委ねるアーキテクチャ。スマートグラスの中核機能を支える基盤。
Visual Intelligence
iPhoneおよびAppleデバイスのカメラが、映している対象をリアルタイムで解析するAI機能。テキストの読み取り、植物・動物の識別、店舗情報の表示など、視覚的な問い合わせを音声なしで処理できる。スマートグラスでは常時起動型のカメラと組み合わさることで、より大きな役割を担う見込み。
N401チップ
Apple Watchシリーズに使われているSシリーズをベースに開発されたスマートグラス専用の低消費電力SoC(System on Chip)。スマートグラスの限られたバッテリー容量に合わせた最適化設計が求められる。
Private Cloud Compute(PCC)
Appleが構築した、Appleシリコンを搭載したサーバー上でAI処理を行うプライベートクラウド基盤。デバイス側で処理しきれない複雑なAIリクエストをPCCに転送するが、データはAppleを含む第三者がアクセスできない設計とされる。独立した外部研究者によるコード検証も可能とされている。
Apple Foundation Models
AppleがApple Intelligence向けに開発した基盤AIモデル群。2026年1月発表のGoogle提携により、次世代モデルはGemini技術を基盤として構築される方針となった。ただし推論処理はApple端末とPCC上で行われる。
Android XR
Googleが開発したXR(拡張現実)デバイス向けOSプラットフォーム。スマートグラスやヘッドセットへのAndroid基盤の適用を目指し、AI統合はGeminiが担う。Samsung Galaxy GlassesやGoogle公認のWarby Parker製グラスがAndroid XRを採用予定。
XR(Extended Reality)
VR(仮想現実)・AR(拡張現実)・MR(複合現実)を包括する市場区分の総称。IDCはスマートグラスを含む幅広いウェアラブルをXRとして集計している。2025年のIDC調査では、XR出荷の成長をディスプレイなしAIグラスが主導した。
【参考リンク】
Apple Intelligence(外部)
Appleの生成AI機能群の公式解説。Visual Intelligence・文章生成・画像生成の機能とプライバシー設計の概要を掲載。
Private Cloud Compute:AIプライバシーの新境地(外部)
PCCのアーキテクチャとセキュリティ設計を技術的に詳述。独立した外部検証を可能にする設計原則も解説。
Ray-Ban Meta AI Glasses(外部)
現在市販中の競合スマートグラス。Llama 4統合済みの音声AI・通話・写真・翻訳機能の詳細を公式に紹介。
Android XR(外部)
GoogleのXR向けOSプラットフォーム公式ページ。Gemini AIとの統合やWarby Parker・Samsungとのパートナー展開を説明。
IDC Worldwide Quarterly XR Device Tracker(外部)
本記事で引用したXR出荷統計の原データソース。2025〜2026年のスマートグラス市場シェアデータを継続発表。
【参考動画】
Bloomberg Technology “Apple Plans AI Glasses to Rival Meta’s”(Mark Gurman、2026年4月)
【参考記事】
Apple Smart Glasses Late 2026 vs. Meta’s Fragile Market Lead(Next Reality)
IDCによる2025年XR市場データ(出荷台数・シェア・カテゴリ別成長率)を詳述。MetaのプライバシーリスクもスウェーデンメディアのRay-Ban Meta調査を引用して紹介。
Google confirms context-aware Siri built from Gemini will debut in 2026(AppleInsider)
Google Cloud Next 2026でThomas KurianがApple-Google提携を公式確認した内容を報道。
Joint Statement: Google and Apple(Google公式ブログ)
2026年1月12日付の両社共同声明全文。次世代Apple Foundation ModelsをGemini技術ベースで構築する複数年契約の内容を掲載。
Apple and Google Strike AI Deal to Bring Gemini to Siri(CNBC)
提携発表当日のCNBC報道。Appleの「careful evaluation」コメントや検討経緯を含む。
Apple’s Siri AI Overhaul: The V2 Architecture and What It Means(eWeek)
Craig FederighiがWWDC 2025後のインタビューでV1アーキテクチャの限界を認め、V2刷新を説明した内容を詳述。
Siri in iOS 26: Timeline, Features, and What’s Confirmed(MacRumors)
iOS 26.4〜iOS 27にかけてのSiriロードマップ最新状況。各機能のリリース見込み時期を整理。
Apple smart glasses: Everything you need to know(Macworld)
本記事の主軸ソース。フレームデザイン・機能仕様・発売スケジュールに関するGurmanの報告を網羅的に整理した継続更新記事。
【関連記事】
【編集部後記】
スマートグラスという新しい眼鏡に、AppleがGeminiを基盤にしたSiriを乗せて現れる──この構図を、数年前に正確に予測できた人はほとんどいなかったはずです。自前のAIと自前のプライバシー設計でiPhoneを築き上げてきた企業が、Googleの技術を土台にした音声アシスタントで、2027年の「顔」を飾ろうとしている。そこに込められた遠回りの理屈と、それでも譲れなかった設計思想を、私たちは発売までの数か月間、iOS 27の挙動を通して少しずつ読み解いていくことになりそうです。











