innovaTopia

ーTech for Human Evolutionー

Google、TED2025でAI搭載HUDスマートグラスを披露 – 視界に情報を投影し記憶を拡張する次世代ウェアラブル

 - innovaTopia - (イノベトピア)

Last Updated on 2025-04-18 15:22 by admin

GoogleはTED2025カンファレンス(2025年4月11日頃、カナダ・バンクーバー)でHUD(ヘッドアップディスプレイ)搭載のスタイリッシュなAIスマートグラスを披露した。このグラスはカメラ、マイク、スピーカーに加え、右目に小型の高解像度フルカラーディスプレイを搭載している。デモではGoogleの対話型AIシステム「Gemini」の「Project Astra」機能が紹介され、視覚情報の記憶、マルチモーダル対話、多言語翻訳、ナビゲーションなど多彩な機能が披露された。

Googleはこれをまだコンセプトハードウェアと位置づけており、具体的な製品発表はないが、昨年のGoogle I/O 2024で披露されたモデルよりも大幅に小型化されており、製品化に向けた開発が進んでいることが示唆されている。スマートフォンと連携して動作し、グラスを軽量に保ちながらスマートフォンのアプリにアクセスできる設計思想を採用している。

スマートグラス市場では、SamsungがGoogle Gemini AIを搭載したスマートグラスを開発中(初期生産台数は50万台を予定)であり、MetaとGoogleは「Project Moohan」と呼ばれるMRヘッドセットも共同開発している。また、Metaは2025年後半にHUD搭載グラスを発売予定、Appleは2026年または2027年に1,000ドル以下のスマートグラス製品のリリースを計画している。Ray-Ban Metaグラスが200万台の販売を達成した成功を受け、今後数年間でAI搭載スマートグラス市場の競争が激化すると予想されている。

from Google Showed Off Sleek Smart Glasses With A HUD At TED2025

【編集部解説】

GoogleがTED2025で披露したHUD搭載スマートグラスは、ウェアラブルテクノロジーとAIの融合における重要な進化を示しています。このデモは2025年4月11日頃にカナダのバンクーバーで開催されたTEDカンファレンスで行われました。次回の発表機会としては、来月開催予定のGoogle I/O 2025が注目されています。

このデバイスの最も注目すべき点は、単なるカメラやスピーカーを超え、実際に視界に情報を投影できる点です。右レンズに組み込まれた小型ディスプレイは、ユーザーの視界に情報をオーバーレイする機能を持ち、これはARグラスへの重要なステップといえるでしょう。

特に「Project Astra」機能は、AIがユーザーの視覚体験を継続的に記録・理解し、コンテキストを維持しながら適切な情報を提供できる点で革新的です。例えば、過去に見た物の位置を覚えていたり、視界内の物体を認識して関連情報を提供したりする能力は、人間の認知能力を拡張するテクノロジーの好例といえます。

このデモが示す重要なトレンドは、AIインターフェースの自然化です。言語設定を変更することなく多言語対応ができる点や、視覚情報と音声を組み合わせたマルチモーダルな対話が可能な点は、テクノロジーがより人間の自然な行動パターンに適応していく方向性を示しています。

Googleがこれをまだ「コンセプチュアルハードウェア」と位置づけている点は注目に値します。Googleの設計思想は、グラスを非常に軽量に保ちながらスマートフォンと連携して動作させることで、処理負荷を分散させる方式を採用しています。しかし、バッテリー寿命や熱管理などの技術的課題を解決する必要があるほか、常時カメラが周囲を撮影することによるプライバシーの問題や、視界に情報が表示されることによる注意散漫の懸念など、社会的課題も解決しなければなりません。

スマートグラス市場の競争環境も興味深い点です。Metaは2025年後半に独自のHUD搭載スマートグラスを発売する計画があり、指のジェスチャーによる制御とsEMG神経リストバンドという独自のインターフェースを特徴としています。一方、SamsungはGoogle Gemini AIを搭載したスマートグラスを開発中で、初期生産台数は50万台を予定しているとされます。さらに、GoogleとSamsungは「Project Moohan」と呼ばれるMRヘッドセットも共同開発中です。Appleも2026年または2027年頃に1,000ドル以下のスマートグラス製品をリリースする計画があるとされています。

これらのデバイスが普及すると、私たちの情報アクセスの方法が根本的に変わる可能性があります。例えば、外国を旅行中に看板や会話をリアルタイムで翻訳したり、初めて訪れる場所でもナビゲーションを視界に直接表示したり、会議中に重要なポイントを自動的に記録したりといった使い方が考えられます。

規制の観点からは、プライバシー保護や公共の場での使用ルール、データ収集と利用に関するガイドラインなど、新たな枠組みが必要になるでしょう。特に、他者の同意なく撮影・記録できる機能は、各国の個人情報保護法制との整合性が問われることになります。

長期的には、スマートグラスはスマートフォンに続く次世代のコンピューティングプラットフォームとなる可能性を秘めています。物理的なデバイスを操作する必要なく、視線や音声だけで情報にアクセスできる世界は、人間とテクノロジーの関係性を根本から変えるかもしれません。

【用語解説】

HUD(ヘッドアップディスプレイ):もともと航空機のパイロット向けに開発された技術で、視界に直接情報を投影する表示システムである。スマートグラスにおいては、レンズに情報を表示することで、ユーザーが前を見たまま情報を確認できる仕組みである。カーナビの情報をフロントガラスに投影するシステムと同様の概念だ。

マルチモーダルAI:テキスト、画像、音声、動画など複数の形式(モード)の情報を同時に処理できるAIシステムである。例えば、目の前の物体を見ながら質問すると、AIがその物体を認識した上で回答できる。従来のAIが主にテキストのみを扱うのに対し、人間のように複数の感覚を組み合わせて理解できる。

Project Astra:Googleが開発する次世代AIアシスタントプロジェクトで、ユーザーの視覚体験を継続的に記録・理解し、コンテキストを維持しながら適切な情報を提供する技術である。例えば、過去に見た物の位置を覚えていたり、視界内の物体を認識して関連情報を提供したりする能力を持つ。人間の記憶を補助するデジタルメモリのようなものと考えられる。

Project Moohan:GoogleとSamsungが共同開発中のMR(複合現実)ヘッドセットプロジェクトである。スマートグラスよりも高度な没入型体験を提供することを目指している。

sEMG神経リストバンド:表面筋電図(surface electromyography)技術を使用したリストバンドで、腕や手の筋肉の微細な電気信号を検出することで、指のジェスチャーや動きを認識するデバイスである。実際に指を動かさなくても、動かそうとする意図を検知できる先進的なインターフェースだ。

Gemini:Googleが開発した最新の大規模言語モデル(LLM)で、テキスト、画像、音声、動画などを理解・処理できるマルチモーダル能力を持つ。Google検索やその他のサービスに組み込まれており、Project Astraの基盤技術となっている。

ローリングコンテキストメモリ:AIが会話の流れや過去の情報を記憶し、新しい情報と組み合わせて理解する能力である。例えば、以前見た物について後から質問しても、その文脈を理解して回答できる機能だ。人間の短期記憶と長期記憶を組み合わせたような仕組みといえる。

【参考リンク】

Google Gemini(外部)Googleの最新AIモデルで、マルチモーダル能力を持ち、様々なGoogle製品に統合されている。

Google Project Astra(外部)Googleの次世代AIアシスタントプロジェクト。視覚情報の記憶や理解など、高度な機能を開発。

Samsung Electronics(外部)Google Gemini AIを搭載したスマートグラスの開発に取り組んでいる世界的な電子機器メーカー。

【参考動画】

【関連記事】

AI(人工知能)ニュースをinnovaTopiaでもっと読む

投稿者アバター
乗杉 海
新しいものが大好きなゲーマー系ライターです!
ホーム » VR/AR » VR/ARニュース » Google、TED2025でAI搭載HUDスマートグラスを披露 – 視界に情報を投影し記憶を拡張する次世代ウェアラブル