中国のAnt Groupは2025年10月24日、1兆パラメータを持つオープンソース推論モデル「Ring-1T」の正式版をHugging Face上で公開した。
Ring-1TはOpenAIのGPT-5やo-シリーズ、GoogleのGemini 2.5との競合を目指しており、トークンあたり約500億のアクティブ化パラメータを持つ。数学的・論理的問題、コード生成、科学的問題解決に最適化されている。
モデルは9月にプレビュー版として初リリースされており、Ling 2.0と同じアーキテクチャを採用、同社が今月初めにリリースしたLing-1T-baseにてトレーニングされている。これにより、最大12万8000トークンをサポートするという。また、Ant Groupは訓練のため、IcePop、C3PO++、ASystemという3つの新手法を開発した。
ベンチマークテストではGPT-5に次ぐ2位の成績を収め、AIME 25リーダーボードで93.4%のスコアを記録した。コーディングではDeepSeekとQwenを上回る結果となった。
From:
Inside Ring-1T: Ant engineers solve reinforcement learning bottlenecks at trillion scale
【編集部解説】
Ring-1Tの登場は、AI開発における技術的なブレークスルーというだけでなく、オープンソースコミュニティにとって大きな意味を持っています。これまで1兆パラメータ規模のモデルは、OpenAIやGoogleといった巨大テック企業の独壇場でしたが、Ant Groupがこれをオープンソースとして公開したことで、研究者や開発者が最先端の推論技術にアクセスできる環境が整いました。
このモデルの真の革新性は、そのサイズではなく、訓練手法にあります。1兆パラメータという規模を強化学習で訓練する際、従来は計算リソースの非効率性や訓練の不安定性が大きな障壁となっていました。Ant Groupが開発した3つの手法は、この課題に対する実践的な解決策を示しています。
IcePopは、混合エキスパート(MoE)アーキテクチャ特有の問題に対処します。訓練時と推論時で確率計算にズレが生じる現象は、長い思考連鎖(Chain of Thought)を扱う際に特に深刻化し、モデルの性能を著しく低下させます。両側マスキングキャリブレーションという手法でこのノイズを抑制することで、推論速度を犠牲にすることなく訓練を安定化させています。
C3PO++は、GPU利用効率の最適化に焦点を当てています。超大規模モデルの訓練では、GPUがアイドル状態になる時間を最小化することが、コスト削減と訓練時間短縮の鍵となります。推論プールと訓練プールを並列化し、トークンバジェットで処理量を動的に制御する仕組みは、限られた計算資源を最大限に活用する設計といえます。
ベンチマーク結果で注目すべきは、AIME 25での93.4%というスコアです。これは高度な数学的推論能力を示すもので、GPT-5に次ぐ性能を達成しながらオープンソースとして公開されている点が画期的です。コーディング分野でDeepSeekやQwenを上回ったことは、エージェント型アプリケーションの開発基盤としての可能性を示唆しています。
一方で、このような超大規模モデルの普及には潜在的なリスクも伴います。計算コストの高さは依然として課題であり、環境負荷の観点からも持続可能性が問われます。また、推論能力が向上することで、ディープフェイクやフィッシング詐欺といった悪用のリスクも高まる可能性があります。
米中のAI覇権競争という文脈では、Ring-1Tの登場は中国が技術面で着実に追い上げていることを示しています。DeepSeekの登場以降、中国企業は驚異的なペースでモデルをリリースしており、この競争がイノベーションを加速させている側面は否定できません。ただし、オープンソース化の戦略には、技術の民主化という理念だけでなく、エコシステムの構築やデファクトスタンダードの獲得といった戦略的意図も見て取れます。
長期的には、こうした超大規模モデルの訓練手法の進化が、AIの応用範囲をさらに広げていくでしょう。特に科学研究や複雑なシステム設計といった分野で、人間の認知能力を補完するツールとしての価値が高まることが予想されます。
【用語解説】
混合エキスパート(MoE: Mixture of Experts)
大規模モデルを複数の専門化されたサブモデル(エキスパート)に分割し、入力に応じて最適なエキスパートを選択して処理するアーキテクチャである。全パラメータを常時活性化せず、必要な部分のみを動作させることで計算効率を向上させる。
AIME(American Invitational Mathematics Examination)
米国の高校生を対象とした高難度数学競技試験である。AIモデルの数学的推論能力を評価する代表的なベンチマークとして使用されている。
IcePop
Ant Groupが開発した強化学習の訓練安定化手法である。両側マスキングキャリブレーションによりノイズの多い勾配更新を抑制し、訓練時と推論時の不整合を解消する。
C3PO++
大規模パラメータモデルの訓練効率を最適化するシステムである。推論プールと訓練プールを並列化し、トークンバジェットで処理量を制御することでGPUのアイドル時間を最小化する。
ASystem
SingleController+SPMD(Single Program, Multiple Data)アーキテクチャを採用した高性能強化学習フレームワークである。非同期操作を可能にし、1兆パラメータ規模のモデル訓練におけるシステム的ボトルネックを解決する。
【参考リンク】
Ring-1T (Hugging Face)(外部)
Ring-1Tの公式モデルカードページ。モデルの重み、技術仕様、アーキテクチャ詳細、ベンチマーク結果を提供。開発者が直接アクセス可能。
Ant Group 公式サイト(外部)
中国フィンテック大手Ant Groupの英語公式サイト。Alibaba関連会社で、モバイル決済プラットフォームAlipayを運営。
OpenAI 公式サイト(外部)
GPT-5やo-シリーズを開発する米国の人工知能研究機関。ChatGPTの提供元として知られ、AI業界のリーダー的存在。
【参考記事】
Ant Group Open-Sources Ring-1T-Preview(外部)
Ring-1Tプレビュー版リリース時の記事。9月の初期段階でのモデル特徴とGPT-5を上回る性能を示したベンチマーク結果を報告。
Scaling Reinforcement Learning for Trillion-Scale Thinking Model(外部)
Ring-1Tの公式技術論文。1兆パラメータ規模での訓練課題、訓練-推論ミスアライメント、ロールアウト処理の非効率性への対処法を詳述。
The World’s First Open-Source Trillion-Parameter Thinking Model(外部)
Ring-1TをSiliconFlowプラットフォームで利用可能にした発表記事。1兆総パラメータ、500億活性化パラメータ、128Kトークンコンテキストの技術仕様を紹介。
【編集部後記】
1兆パラメータという規模感は、私たちが日常的に扱うデータの範囲をはるかに超えていますが、こうした超大規模モデルが実際にどのような問題を解決し、私たちの生活にどう影響するのか、一緒に考えてみませんか。
Ring-1Tがオープンソースとして公開されたことで、研究者だけでなく、開発者コミュニティ全体が最先端技術に触れられる環境が生まれています。みなさんは、こうした技術の民主化が、イノベーションの加速につながると思いますか。それとも、新たなリスクも伴うと感じるでしょうか。ぜひみなさんの視点からも、この技術革新がもたらす可能性について考えを巡らせてみてください。























