MetaはSIGGRAPH 2025採択論文「SqueezeMe」で、これまで高性能なPCワークステーションでしか実現できなかったフォトリアリスティックなCodec Avatarsを、Quest 3単体で3体同時に72FPSで動作させる手法を発表した。
512台のカメラと多数のライトを備えたスタジオでデータを収録し、AIによるモデル蒸留で大規模モデルを小型化。Snapdragon XR2 Gen 2のNPUとGPUへの最適化によって、PCと比較しても品質の劣化がほとんどない表現を実現している。
ただし、一般展開には課題も残る。Quest 3や3Sには視線追跡や顔追跡が搭載されていないため、リアルタイムな顔表現は難しい。これらの機能を持っていたQuest Proは2025年初頭に販売終了となっている。さらに、アバター生成には今も大規模な設備や大量のデータ収集が必要で、誰でも手軽に自分のCodec Avatarsを作れる環境にはなっていない。
競合としては、AppleのVision Proが「Personas」機能をすでに提供しており、市場競争も進んでいる。Metaは9月17日と18日にMeta Connect 2025を開催予定で、今後の普及策や新展開に注目が集まる。デジタルアバター技術は今後もVR/AR分野の進化を牽引する領域となりそうだ。
from:
Meta Got 3 Full-Body Codec Avatars Running On Quest 3 | UploadVR
【編集部解説】
まず理解しておきたいのは、今回のSqueezeMeという研究がなぜ画期的なのかという点です。これまでCodec Avatarsのリアルなバージョンは、GeForce RTX 4090を4枚搭載したワークステーションでしか動作しませんでした。Meta CEOのマーク・ザッカーバーグがレックス・フリッドマンのポッドキャストで見せた印象的なCodec Avatarも、実際にはこうした強力なワークステーション上でレンダリングされていました。
ところが今回のSqueezeMeでは、モデル蒸留と呼ばれるAI技術を活用して、Quest 3のモバイルチップセット上で3体のフルボディアバターを72FPSで動作させることに成功しています。これは、PC版と比較してほぼ品質の損失がないレベルでの実現です。技術的には、Quest 3のSnapdragon XR2 Gen 2チップの持つNPU(Neural Processing Unit)とGPUの両方を効率的に活用した成果といえます。
この研究はSIGGRAPH 2025に採択されており、学術的にも高い評価を受けています。512台のカメラで撮影されたAnimatable Gaussiansをベースに訓練を行い、ガウシアンスプラッティング技術を活用してモバイル環境での高速レンダリングを実現しました。
ただし、現実的な制約もあります。Quest 3もQuest 3Sも視線追跡や顔追跡機能を持たないため、実際にCodec Avatarsを製品として展開するには別のアプローチが必要です。Quest Proは両機能を搭載していましたが、2025年初頭に製造中止となりました。Metaの研究では、音声データから顔の表情を推定するAI技術の開発も進んでおり、これが実装されれば既存のQuestシリーズでもCodec Avatarsが利用可能になる可能性があります。
競合との比較では、AppleがVision ProでPersonasを既に製品化している点は見逃せません。AppleのPersonasは不気味の谷を完全には越えていないものの、実用的なレベルでの3Dアバターシステムを提供しています。Metaが約10年間研究してきた技術をAppleが先に製品化した形になり、業界内での競争圧力が高まっています。
この技術が実用化されると、リモートワークやバーチャル会議の体験が劇的に向上する可能性があります。現在のビデオ通話では得られない「ソーシャルプレゼンス」、つまり相手が本当にその場にいるような感覚を提供できるためです。特に、コロナ禍を経て定着したリモートワーク文化において、こうした技術は新たなコミュニケーション手段として重要な役割を果たすでしょう。
一方で、潜在的なリスクも考慮する必要があります。フォトリアリスティックなアバター技術は、なりすましやディープフェイクと同様の悪用の可能性を秘めています。また、個人の顔や身体のデータを高精度でデジタル化するため、プライバシー保護の観点からも慎重な取り扱いが求められるでしょう。
今後の展開として、Meta Connect 2025(9月17-18日開催予定)でより詳細な発表が期待されます。同社は段階的な実装として、まずWhatsAppやMessengerでの簡易版Codec Avatarsの導入から始める可能性も示唆されており、これが実現すれば一般ユーザーにとってより身近な技術になるでしょう。
この技術の成功は、VR/AR業界全体のアバター技術の進化を加速させる可能性があります。特に、日本国内でも注目が高まっているバーチャルヒューマンやデジタルツインの分野において、新たな技術基盤を提供することになるかもしれません。
【用語解説】
Codec Avatars:Metaが約10年間開発中のフォトリアリスティックなアバター技術。VRヘッドセットの顔追跡・視線追跡データをリアルタイムで処理し、不気味の谷を越える高品質な人間のデジタル表現を生成する。
SqueezeMe:Metaが開発したモバイル対応のモデル蒸留技術フレームワーク。SIGGRAPH 2025に採択された研究で、Quest 3でフルボディアバターを3体同時に72FPSで動作させることを実現。
モデル蒸留(Distillation):大規模で計算コストの高いAIモデルの出力を使用して、はるかに小さなモデルを訓練する技術。品質の損失を最小限に抑えながら効率的な再現を目指す。
ガウシアンスプラッティング(Gaussian Splatting):近年注目を集める3Dレンダリング技術。LLMがチャットボットに与えたのと同様のインパクトを現実的な体積レンダリングにもたらした革新的手法。
Animatable Gaussians:SqueezeMe研究で使用された技術基盤。512台のカメラで撮影されたデータセットを元に訓練され、動的な人体モデリングを可能にする。
ソーシャルプレゼンス:物理的にその場にいないにもかかわらず、本当に他者と一緒にいるという潜在意識的な感覚。Codec Avatarsが目指す最終目標。
Quest Pro:Metaが製造していたプロ向けVRヘッドセット。視線追跡と顔追跡機能を搭載していたが、2025年初頭に販売終了となった。
【参考リンク】
Meta公式サイト(外部)Meta Platforms(旧Facebook)の企業情報、製品、技術開発の最新情報を提供。VR/AR技術やAI研究の最新動向も掲載している。
Meta Quest 3公式サイト(外部)Meta Quest 3の詳細な製品情報、技術仕様、購入オプションを提供。混合現実VRヘッドセットの特徴と機能を詳しく紹介している。
【編集部後記】
今回紹介したSqueezeMeによるCodec AvatarsのQuest 3対応は、現時点の技術動向を正確に映し出していると感じます。従来、フォトリアリスティックなアバター表現には高価なワークステーションが必要でしたが、一般向けのデバイスでも同等レベルの処理が現実になりつつあることが分かりました。
一方で、アバター生成のための専用スタジオや膨大な撮影設備の必要性、またQuest 3/3Sでは視線や表情をリアルタイムでトラッキングできないなど、実利用に向けた制約もまだ多く残されています。MetaとAppleをはじめとする各社がどのように市場に展開していくかによって、一般ユーザーへの普及やリアルな活用シーンも今後着実に変わっていくでしょう。