Last Updated on 2025-06-20 16:46 by admin
AMDは2025年6月12日、カリフォルニア州サンノゼで開催した年次Advancing AIイベントにて、AI・高性能コンピューティング向けGPUアクセラレータ「AMD Instinct MI350シリーズ」を発表した。
同シリーズは「MI350X」と「MI355X」の2製品で構成され、CDNA 4アーキテクチャを採用し、288GBのHBM3Eメモリと8TB/sのメモリ帯域幅を実現する。
MI350Xは最大消費電力1000Wの空冷設計、MI355Xは最大消費電力1400Wの液冷設計となる。
両製品とも従来のMI300Xと比較してAIコンピュートで4倍、推論で35倍の性能向上を達成し、FP6/FP4演算でMI350Xが18.45PFLOPS、MI355Xが20.1PLOPSの性能を発揮する。
AMDのリサ・スーCEOは基調講演で「推論の変曲点に到達した」と述べ、OpenAIのサム・アルトマンCEOも登壇してAMDとの協力を表明した。同社は2026年にMI400シリーズの投入も予告している。
From: AMD debuts AMD Instinct MI350 Series accelerator chips with 35X better inferencing
【編集部解説】
今回のAMD Instinct MI350シリーズの発表は、AI半導体市場における競争構造を根本的に変える可能性を秘めています。AMDが「追随者」から「真の競合者」へと明確にポジションを転換した歴史的な瞬間と言えるでしょう。
技術的革新の詳細分析
CDNA 4アーキテクチャは3nmプロセス(TSMC N3P)で製造され、チップレット構造を採用しています。2つのI/Oダイ(6nmプロセス)上に8つのアクセラレータコンピュートダイ(XCD)を積層し、総計288個のコンピュートユニット(CU)を搭載しています。注目すべきは、前世代のMI300Xが304CUだったのに対し、CU数を減らしながらも大幅な性能向上を実現している点です。
MI355Xの最大消費電力1400Wという数値は、NvidiaのGB300 Grace Blackwell Ultraと同等レベルに達しており、データセンター設計に大きな変革を迫ります。液冷システムの必須化により、インフラ投資コストが増大する一方で、高密度配置による運用効率向上も期待できます。
市場戦略の転換点
AMDが「推論の変曲点」と表現した背景には、AI市場の重心が学習から推論へとシフトしている現実があります。FP6/FP4といった低精度演算への対応強化により、推論処理において従来比35倍という劇的な性能向上を実現しました。これは単なる技術的進歩を超え、AI活用の民主化を促進する重要な要素となります。
競合比較の現実
AMD自社発表によると、MI355XはNvidia B200に対してFP6性能で2倍、推論性能で最大1.3倍の優位性を持つとされています。ただし、これらの数値は構造化スパース性を前提とした理論値であり、実際のワークロードでの検証が重要となります。
エネルギー効率革命の意義
38倍のエネルギー効率改善という数値は、AI産業の持続可能性に直結する重要な指標です。2030年までに275ラック以上が必要なAIモデルを1ラック未満で処理可能にするという目標は、データセンターの運用コストと環境負荷を劇的に削減する可能性を示しています。
オープンエコシステム戦略の深層
AMDが推進するオープンスタンダード戦略は、NvidiaのCUDAエコシステムに対する明確な対抗軸となっています。ROCm 7の提供とともに、UALink(Ultra Accelerator Link)という業界標準インターコネクトの推進により、ベンダーロックインからの脱却を目指しています。
潜在的リスクと課題
一方で、AMDが直面する課題も深刻です。ソフトウェアエコシステムの成熟度ではCUDAに大きく劣り、開発者の移行コストも無視できません。また、2026年予定のNvidia Rubin R100の登場により、再び性能差が拡大するリスクも存在します。
長期的な業界インパクト
この発表により、AI半導体市場は真の競争時代に突入しました。競争激化は技術革新の加速と価格適正化をもたらし、最終的にはAI技術の普及促進に寄与することが期待されます。特に中小企業や新興国でのAI導入障壁が大幅に低下する可能性があります。
【用語解説】
CDNA 4アーキテクチャ:
AMDがAI・機械学習向けに開発した第4世代のGPUアーキテクチャ。3nmプロセスで製造され、チップレット構造を採用している。
HBM3E:
High Bandwidth Memory 3 Enhancedの略。GPU向けの高帯域幅メモリ規格で、従来のHBM3よりも高速なデータ転送が可能。
推論(Inference):
学習済みのAIモデルを使用して、新しいデータに対する予測や判断を行うプロセス。AIモデルの実用段階での処理を指す。
チップレット構造:
複数の小さなチップ(ダイ)を組み合わせて一つの大きなプロセッサを構成する設計手法。製造コストの削減と歩留まり向上を実現する。
UALink(Ultra Accelerator Link):
AMD、Intel、Google、Microsoftなどが推進するオープンなGPU間接続規格。NvidiaのNVLinkに対抗する業界標準を目指している。
PFLOPS:
Peta Floating-point Operations Per Secondの略。1秒間に実行可能な浮動小数点演算回数を表す単位で、1PFLOPSは1,000兆回の演算を意味する。
構造化スパース性:
AIモデルの計算において、ゼロ値の要素を効率的にスキップする最適化技術。理論性能値の算出に使用される。
【参考リンク】
AMD公式サイト(外部)
AMDの製品情報、技術資料、最新ニュースを提供する公式サイト。Instinct GPUシリーズの詳細仕様や技術解説も掲載されている。
Oracle Cloud Infrastructure(外部)
Oracleが提供するクラウドコンピューティングサービス。AMD Instinct MI355X GPUを最大131,072個搭載したゼタスケールAIクラスターを提供予定。
OpenAI公式サイト(外部)
ChatGPTやGPTシリーズを開発するAI研究機関。サム・アルトマンCEOが率い、AMDとの協力関係を発表している。
Meta for Developers(外部)
Metaが提供する開発者向けプラットフォーム。LlamaシリーズのAIモデル開発でAMD Instinct GPUを活用している。
Microsoft Azure(外部)
Microsoftが提供するクラウドプラットフォーム。AMD Instinct MI300Xを使用したAIサービスを本番環境で運用している。
Red Hat(外部)IBMの子会社でオープンソースソフトウェアを中心としたエンタープライズソリューションを提供。AMD Instinct GPUとの統合を進めている。
【参考動画】
【参考記事】
AMD announces MI350X and MI355X AI GPUs, claims up to 4X generational gain(外部)
Tom’s Hardwareによる詳細な技術仕様解説。MI350XとMI355Xの性能比較表とNvidia製品との競合分析を掲載している。
AMD Instinct MI355X Draws up to 1400 Watts in OAM Form Factor(外部)
TechPowerUpによる消費電力と冷却システムに関する詳細分析。液冷システムの必要性と競合製品との比較を提供している。
AMD Instinct MI350X Series AI GPU Silicon Detailed(外部)
CDNA 4アーキテクチャのチップレット構造と技術的詳細について専門的な解説を提供している。
【編集部後記】
AI半導体の競争が新たな局面を迎える中、皆さんの組織ではどのような技術選択を検討されていますか?
AMDの新製品により、これまでNvidia一強だった市場に真の選択肢が生まれました。特に推論処理の需要急拡大と電力効率の重要性が高まる今、技術的な仕様だけでなく、総所有コストや運用面での考慮も重要になってきます。皆さんが直面するAI導入の課題や期待について、ぜひお聞かせください。