Oracleは現地時間2025年10月14日、2026年後半までに18ゼタFLOPS以上のAIインフラを展開すると発表した。これには最大80万個のNVIDIA GPUクラスターが含まれ、スパースFP4で最大16ゼタFLOPSのピークAI性能を提供する。
このクラスターはOracle Cloud InfrastructureのZettascale10オファリングの一部で、NVIDIA Spectrum-X Ethernetを活用して接続される。またAMDの次世代アクセラレーター『MI450X』シリーズも最大5万個規模で2026年後半に展開される予定だ。
MI450XはHeliosと呼ばれるラックスケールアーキテクチャで提供され、1ラックあたり72個のGPUがUltra Accelerator Linkで接続されると予測されている。1つのHeliosラックはFP4で2.9エクサFLOPS、FP8で最大1.4エクサFLOPSの性能と31TBのHBM4メモリを備えるとされる。
OpenAIはAMDと契約を結んでおり、6ギガワットのInstinctアクセラレーター展開が実現すれば、AMDの株式1億6,000万株を1株1ペニーで取得する機会を得る。
From: 18 zettaFLOPS of new AI compute coming online from Oracle late next year
【編集部解説】
今回のOracleの発表は、クラウドAIインフラの競争が新たな次元に突入したことを示しています。18ゼタFLOPSという数字は、単なるスペック競争を超えた戦略的な布石と捉えるべきでしょう。
注目すべきは、NvidiaとAMDという競合する2つのGPUベンダーを同時に採用している点です。最大80万個のNVIDIA の次世代 GPUと最大5万個のAMD MI450Xという配分は、供給リスクの分散とコスト最適化を両立させる狙いがあります。特にAMDのHeliosアーキテクチャは、Ultra Accelerator Linkというオープン規格を採用しており、Nvidiaの独占的なNVLink技術への対抗軸として業界に選択肢をもたらす可能性があります。
技術的な側面で興味深いのは、FP4という超低精度演算の活用が本格的に検討され始めている点です。従来のAIモデル訓練ではBF16やFP8が標準でしたが、FP4での訓練が実用レベルに達すれば、同じハードウェアでより大規模なモデルを扱えるようになります。Nvidiaが最近発表した論文でも、特定条件・手法・タスクによってはFP4がFP8に近い品質が示されており、この技術トレンドは今後加速するでしょう。
しかし現実的な課題も山積しています。80万個のGPUを稼働させるには数ギガワット規模の電力が必要で、これは小規模な都市の消費電力に匹敵します。冷却システムや電力供給インフラの整備には膨大な投資と時間が必要であり、2026年後半という目標達成には相当な実行力が求められます。
OpenAIとの関係も見逃せません。AMDとの契約では、6ギガワットのInstinctアクセラレーター展開という条件付きで、AMDの株式1億6,000万株を1株わずか1ペニーで取得できる権利が設定されています。
この規模のインフラが実現すれば、AGI(汎用人工知能)への道のりが一気に短縮される可能性があります。ただし、これほどの計算資源を実際に活用できる企業は限られており、結果的にAI開発における格差が拡大するリスクも孕んでいます。
【用語解説】
ゼタFLOPS(zettaFLOPS)
浮動小数点演算を1秒間に10の21乗回実行できる計算能力の単位。ゼタは10の21乗を表す接頭辞で、エクサ(10の18乗)のさらに1000倍にあたる。現在のスーパーコンピューターやAIインフラの性能を測る際に用いられる。
FP4 / FP8 / BF16
AIモデルの計算に使用される数値の精度を表す。FP4は4ビット浮動小数点、FP8は8ビット浮動小数点、BF16は16ビット浮動小数点を指す。ビット数が少ないほど計算が高速で消費電力も少ないが、精度は低下する。スパースFP4は疎行列演算に最適化された4ビット演算。
HBM4(High Bandwidth Memory 4)
GPUに搭載される超高速メモリの第4世代規格。従来のメモリより帯域幅が桁違いに広く、大規模AIモデルの処理に不可欠な技術である。
NVLink / Ultra Accelerator Link(UALink)
複数のGPU間を高速接続する技術。NVLinkはNvidia独自規格で、UALinkはAMD、Intel、Googleなどが推進するオープン規格。どちらも一般的なPCIeよりはるかに高速なデータ転送を実現する。
Spectrum-X Ethernet
Nvidiaが開発したAI向けEthernetネットワーキングプラットフォーム。従来のEthernetと互換性を保ちながら、AIワークロードに最適化された性能を提供する。
OCP(Open Compute Project)
Facebookが中心となって設立した、データセンター機器のオープン化を推進するプロジェクト。ハードウェア設計を公開し、業界標準の策定を目指している。
【参考リンク】
Oracle Cloud Infrastructure(外部)
Oracleが提供するクラウドコンピューティングサービス。今回発表されたZettascale10オファリングを含む各種ソリューションを展開。
NVIDIA(外部)
GPUおよびAIコンピューティング技術のリーディングカンパニー。Blackwell世代のGPUやSpectrum-Xプラットフォームを開発。
AMD(外部)
プロセッサーおよびグラフィックス技術を提供する半導体企業。Instinct MI450XシリーズやHeliosアーキテクチャを開発。
OpenAI(外部)
ChatGPTやGPTシリーズを開発する人工知能研究企業。Oracleインフラの主要な利用者となる見込み。
Open Compute Project(外部)
データセンターのハードウェアやソフトウェアのオープン化を推進する業界団体。
【参考記事】
NVIDIA and Oracle Accelerate Enterprise AI and Data Processing(外部)
Nvidia公式ブログによる発表記事。OracleのZettascale10クラスターに80万個のNvidia GPUが採用され、16ゼタFLOPSという性能値の根拠が示されている。
AMD Helios DC teaser at advancing AI event(外部)
2025年6月のAMDイベントでHeliosアーキテクチャが初めて予告された際の記事。MI450XとUALinkを使用したラックスケール設計の概要が報じられている。
Stargate OpenAI AMD deal(外部)
OpenAIとAMDの投資契約に関する詳細記事。6ギガワットのInstinctアクセラレーター展開が条件で、OpenAIがAMD株式を取得できる権利について解説されている。
【編集部後記】
18ゼタFLOPSという数字は、私たちの日常からはあまりに遠く感じられるかもしれません。しかし、この計算能力が実現する世界は、私たちの生活に直接影響を与えるものです。医療診断の精度向上、気候変動の予測、新薬の開発——これらすべてが、このインフラ上で動くAIによって加速される可能性があります。
一方で、これほどの計算資源を持つ企業が限られることで、AI開発における力の集中が進むことも気になります。みなさんは、このような巨大インフラの恩恵と、それがもたらす可能性のある格差について、どうお考えでしょうか。テクノロジーの進化を追いながら、その社会的な意味についても一緒に考えていければと思います。