Google「Virgo Network」発表|134,000チップを47ペタビット/秒で接続するメガスケールAIデータセンターファブリック

134,000個のチップを47ペタビット/秒で束ねる——Googleが発表した新ファブリック「Virgo Network」は、AI時代のボトルネックが「計算」から「通信」へと移り変わった瞬間を鮮やかに切り取っています。複数のデータセンターをまたいで100万チップ超を単一の学習クラスターとして動かす、その壮大な構想の中身に迫ります。


Googleは2026年4月23日、AI Hypercomputerの基盤となるメガスケールAIデータセンターファブリック「Virgo Network」を発表した。「campus-as-a-computer」思想のもとに設計された新ファブリックであり、南北トラフィックには既存のJupiterネットワークを活用し、東西通信用に新たなファブリックを導入する。

スケールアップドメイン、スケールアウト アクセラレータファブリック、Jupiterフロントエンドネットワークの3層構造から構成される。ハイラディックススイッチを用いたフラットな2層の非ブロッキングトポロジーを採用し、単一ファブリック内で134,000個のチップ(TPU 8t)を最大47ペタビット/秒の非ブロッキング双方向帯域幅で接続する。アクセラレータあたり帯域幅は前世代比で最大4倍、TPU向け無負荷時ファブリックレイテンシは40%低減する。

発表はベニー・シマン・トフ、アルジュン・シンによる。

From: 文献リンクIntroducing Virgo Network, Google’s scale-out AI data center fabric

【編集部解説】

今回の発表を読み解くうえで、まず押さえておきたい前提があります。AI時代のボトルネックは、もはや「計算性能そのもの」ではなく「ネットワーク」へとシフトしているという事実です。基盤モデルの学習は、大量のアクセラレータが同期して通信を繰り返す処理です。つまり、どれほど高性能なチップを並べても、それらをつなぐネットワークが追いつかなければ、チップは待機時間ばかりを積み重ねてしまうのです。

Virgo Networkは、この「帯域幅という新たな制約」に対するGoogleの回答だと筆者は捉えています。注目すべきは、Googleが採用した「campus-as-a-computer(キャンパスをひとつのコンピューターとして扱う)」という設計思想です。これまで個別のサーバー群の集合体だったデータセンターを、まるで一台の巨大なコンピューターのように一体運用する、という発想の転換が込められています。

技術的なポイントをかみ砕くと、ネットワークを3層に「分業」させたことが本質です。ポッド内のチップ同士をつなぐスケールアップ、ポッド間をつなぐスケールアウト(東西)、ストレージや汎用計算資源へアクセスするJupiterフロントエンド(南北)。これらを独立して進化させられる構造にしたことで、ある層のアップグレードが他の層を巻き込まないというメリットが生まれます。システム全体を止めずに刷新できる、というのは運用現場にとって極めて大きな意味を持ちます。

具体的な数値も目を引きます。単一ファブリックで134,000個のTPU 8tチップを接続し、さらに複数拠点を束ねることで100万チップ超を単一の学習クラスターとして扱えるとGoogleは説明しています。1.6ミリオンエクサフロップス(FP4、理論ピーク値)というスループットは、現時点で他社が公表している水準を大きく上回る規模感です。Google自身は「フロンティアモデルの開発サイクルを数カ月から数週間へ縮める」ことを目標として掲げており、実際の短縮幅はモデルやワークロードに依存するものの、研究サイクル自体を揺さぶる可能性を秘めた目標であることは確かです。

競合の動きとも照らし合わせておきたいところです。NVIDIAはSpectrum-X EthernetやNVLink、そして拠点間をつなぐSpectrum-XGSといった独自のネットワーキング技術で同じ領域を攻めています。MetaやOracleはNVIDIAのSpectrum-Xを採用しており、Googleの垂直統合アプローチと、NVIDIAのエコシステム広がり戦略という、二つの路線が並走している構図が見えてきます。興味深いのは、Virgo NetworkがNVIDIA Vera Rubin NVL72を搭載するA5Xインスタンスにも提供される点で、ここでは競合であり協業相手でもあるという複雑な関係が浮かび上がります。

ポジティブな側面として、レイテンシが前世代比で40%低減されること、サブミリ秒単位のテレメトリで「遅延しているノード(ストラグラー)」や「応答停止したノード(ハング)」を検知する仕組みが組み込まれていることは特筆に値します。大規模分散学習では、たった1台の遅いノードがクラスター全体の速度を引きずる「ストラグラー問題」が宿命的な課題でした。その自動検知・局所化は、学習の実質的なスループット、つまり「グッドプット」を大きく底上げします。

一方で、筆者として提起しておきたい論点もあります。このクラスのインフラを構築・運用できるプレイヤーが、Google、Microsoft、AWS、そしてNVIDIAのエコシステムに連なる一部の巨大企業に限られていくことで、AIインフラの寡占がさらに進む可能性があります。研究者や中小プレイヤーが、自前の計算基盤ではなく、これらクラウドに依存せざるを得ない構造はいっそう強固になるでしょう。

もうひとつ、見過ごせないのがエネルギー問題です。100万チップ超の分散学習クラスターは、単一のデータセンターで収まる電力量ではありません。だからこそ複数拠点をまたぐ設計になっているわけですが、これは裏を返せば、AI学習のために地域をまたいだ電力インフラと通信インフラの再編が進むことを意味します。日本国内のデータセンター立地や再生可能エネルギー調達の議論とも直結するテーマです。

長期的な視点で見ると、Virgo Networkが切り開くのは「エージェンティックAIの時代」の物理基盤です。自律的にタスクを実行するAIエージェントが普及する未来では、推論のリアルタイム性と学習の規模が同時に求められます。そのためのインフラが、いよいよ物理層から設計し直され始めた、という位置づけで筆者はこのニュースを受け止めています。日本の読者にとっても、手元のスマートフォンで動くAIサービスの裏側で、こうした地球規模のインフラ再編が進行していることを意識する価値はあるはずです。

【用語解説】

AI Hypercomputer
Googleが2023年末に発表した、計算・ストレージ・ネットワーキング・ソフトウェアを統合したAI向けスーパーコンピューターアーキテクチャ。Virgo Networkはその基盤ネットワーク層を担う。

TPU(Tensor Processing Unit)
Googleが独自開発するAI専用チップ。今回言及されているTPU 8tは第8世代の学習用チップで、推論用の姉妹品としてTPU 8iが同時発表されている。

Jupiter network
Googleが長年運用してきたデータセンター内のバックボーンネットワーク。Virgo Networkでは南北(ノースサウス)トラフィック、つまりストレージや汎用計算資源へのアクセスを担当する。

RDMA(Remote Direct Memory Access)
あるコンピューターのメモリから、CPUを介さずに別のコンピューターのメモリへ直接データを転送する技術。遅延を大幅に削減できるため、AI学習の高速化に不可欠とされる。

Goodput(グッドプット)
ネットワークの「実効スループット」を指す用語。単なる帯域幅ではなく、実際に意味のある処理が完了した量を示す指標であり、AI学習の生産性評価に用いられる。

Straggler(ストラグラー)/ Hang(ハング)
分散処理で他のノードより処理が遅れているノードをストラグラー、完全に応答を停止したノードをハングと呼ぶ。同期型の学習ではこれらがクラスター全体の速度を決定してしまう。

Bisectional bandwidth(双方向/バイセクション帯域幅)
ネットワークを任意に二分割したとき、両者を結ぶリンクが持つ合計帯域幅のこと。大規模クラスターの通信能力を測る代表的な指標である。

Non-blocking topology(非ブロッキングトポロジー)
どのノード間の通信も、他の通信によって帯域が奪われない構造のネットワーク設計。ピーク時でも性能が劣化しない。

High-radix switch(ハイラディックススイッチ)
1台あたりのポート数が非常に多いスイッチ。これを用いることでネットワークの階層を減らし、レイテンシを低減できる。

Pod(ポッド)/ Superpod(スーパーポッド)
複数のアクセラレータを高速インターコネクトで密結合した計算単位。TPU 8tでは1つの「スーパーポッド」に9,600個のチップが搭載され、121エクサフロップスの演算性能と2ペタバイトの共有メモリを提供する。

MTBI / MTTR
Mean-Time Between Interruptions(中断間平均時間)と Mean-Time To Recovery(平均復旧時間)。前者を長く、後者を短くすることが大規模システムの信頼性設計の基本となる。

Agentic AI(エージェンティックAI)
自律的にタスクを計画・実行するAIのあり方。従来のチャット応答型と異なり、複数ステップの判断と行動を連続して行う。

Campus-as-a-computer(キャンパス・アズ・ア・コンピューター)
データセンターの集合体を、あたかも1台の巨大なコンピューターとして設計・運用するという思想。Virgo Networkの根幹となる設計哲学である。

【参考リンク】

AI Hypercomputer(Google Cloud)(外部)
Virgo Networkが基盤として支えるGoogleのAI向け統合アーキテクチャの全体像を紹介する公式ページ。

Google Cloud Next 2026(外部)
Virgo Network発表の舞台となった年次イベントの公式情報ポータル。関連セッションの情報が掲載されている。

Jupiter ネットワーク解説(Google Cloud Blog)(外部)
Virgo Networkの南北通信を担うJupiterネットワークの25年の歴史と技術背景を解説する公式記事。

NVIDIA 公式サイト(外部)
Vera Rubin NVL72を含む、Virgo Networkが対応するGPUプラットフォームを提供する企業の公式サイト。

【参考記事】

AI infrastructure at Next ’26(Google Cloud Blog)(外部)
134,000TPU接続、複数拠点で100万TPU超、A5Xで960,000GPU対応などの数値を公式に明示している記事。

Google unveils eighth-generation TPUs(DataCenterDynamics)(外部)
TPU 8tの19.2Tbpsスケールアップ帯域幅と1.6ミリオンエクサフロップスの演算性能を技術メディアが整理。

Google Cloud announces eighth-generation TPUs(IT Pro)(外部)
1ポッドあたり9,600チップ、Boardflyによる50%レイテンシ改善など詳細数値を含む取材記事である。

Google announces innovations in mega-scale networking(SiliconANGLE)(外部)
フラット化による階層削減、独立スイッチングプレーン、サブミリ秒テレメトリを解説した分析記事。

Google Cloud Unveils Virgo Network(TechAfrica News)(外部)
3層構造を汎用ネットワークからの脱却という視点で整理し、独立アップグレードの意義を解説する記事。

【関連記事】

マッキンゼーとGoogleがAI変革を加速する共同チームを発足|「誰と変革するか」が成果を分ける
同じGoogle Cloud Next 2026で発表されたマッキンゼーとの共同実装体制に関する記事。

Claude Code、Google開発チームの1年分を1時間で実現──AI支援コーディングの転換点
GoogleとAnthropicのTPUパートナーシップ(2026年1ギガワット超)に触れた記事。

Google DeepMind CEO デミス・ハサビス「AIバブルの一部は持続不可能」Googleの構造的優位性を強調
Google独自のTPUインフラを構造的優位性として分析したハサビス発言の記事。

【編集部後記】

今回ご紹介したVirgo Networkは、私たちが日常的に触れるAIサービスの「見えない裏側」で進んでいる変化の象徴だと感じています。スマートフォンで気軽に使っているAIサービスも、その裏側では134,000個ものチップを束ねるこうした巨大なネットワーク上でモデルが育てられ、私たちの手元に届いているのです。

みなさんは、AIが進化するために「チップの性能」と「ネットワークの性能」、どちらがより重要だと思いますか。また、100万チップ規模の学習クラスターが複数の国や地域にまたがって動く時代、日本のデータセンターはどのような役割を担っていくのでしょうか。ぜひ一緒に考えていけたら嬉しく思います。

投稿者アバター
TaTsu
『デジタルの窓口』代表。名前の通り、テクノロジーに関するあらゆる相談の”最初の窓口”になることが私の役割です。未来技術がもたらす「期待」と、情報セキュリティという「不安」の両方に寄り添い、誰もが安心して新しい一歩を踏み出せるような道しるべを発信します。 ブロックチェーンやスペーステクノロジーといったワクワクする未来の話から、サイバー攻撃から身を守る実践的な知識まで、幅広くカバー。ハイブリッド異業種交流会『クロストーク』のファウンダーとしての顔も持つ。未来を語り合う場を創っていきたいです。