advertisements

Rakuten AI 3.0 正式公開—日本最大LLMの実力と「DeepSeek発」論争の核心

[更新]2026年3月20日

楽天グループ株式会社は2026年3月17日、経済産業省およびNEDOが推進するGENIACプロジェクトの一環として開発した日本語LLM「Rakuten AI 3.0」を公開した。同モデルは約7,000億パラメータのMixture of Experts(MoE)アーキテクチャを採用し、2025年12月の発表後にファインチューニングを経てリリースされた。

Apache 2.0ライセンスのもと、楽天グループの公式Hugging Faceリポジトリから無償で提供される。楽天は2025年7月にGENIACプロジェクトの第3期に採択されており、トレーニングコストの一部は同プロジェクトが負担した。複数の日本語ベンチマークで主要モデルと比較評価が行われている。

From: 文献リンクRakuten AI 3.0 Now Available, Japan’s Largest High-Performance AI Model Developed as Part of the GENIAC Project | Rakuten Group, Inc.

【編集部解説】

Rakuten AI 3.0は、日本語に最適化されたLLM(大規模言語モデル)として、文章生成・コード生成・文書分析といった幅広いタスクへの活用が期待されます。Apache 2.0ライセンスで無償公開されたことで、スタートアップから大企業まで、コストをかけずに日本語対応AIアプリケーションを開発する基盤として利用できる点は、日本のAIエコシステム全体にとって意義深い一歩です。

しかし、リリース直後から国際的な開発者コミュニティで大きな議論が起きています。Hugging Face上に公開されたモデルの設定ファイル(config.json)を確認すると、アーキテクチャの記述に「deepseek_v3」と明記されており、総パラメータ数671B・トークンあたり有効化パラメータ37B(楽天の12月公式発表では約40B)という仕様が、中国のDeepSeekが開発したDeepSeek V3と完全に一致しています。プレスリリースが「約7,000億パラメータ」と記述しているのに対し、Hugging Faceの実際のモデルカードには「Total Parameters: 671B」と記載されている点も、読者は留意する必要があります。

オープンソースモデルをベースにファインチューニングする手法は、現在のAI開発では一般的かつ合理的なアプローチです。Llama、Mistral、DeepSeekなどは世界中の企業が活用する基盤モデルとなっています。今回問題視されているのは、ファインチューニング自体ではありません。楽天のプレスリリースはDeepSeekへの言及を一切行わず、「オープンソースコミュニティの知見を活用した」という曖昧な表現にとどめた点、そして初期公開時にDeepSeek V3のMITライセンス表記が欠落していた点です。MITライセンスは派生物においても元の著作権表記の保持を求めており、コミュニティからの指摘を受けて「NOTICE」ファイルが後から追加された経緯は、透明性の観点から批判を集めています。

ベンチマーク評価の設計にも注目が必要です。楽天は日本の文化知識・歴史・命令追従などの指標で主要モデルを上回ると発表していますが、比較対象には120Bパラメータ規模のモデルも含まれています。7,000億規模のモデルと比べれば、スコアに差が出るのは構造上の有利さも影響しており、日本のAIコミュニティからは評価軸の妥当性を問う声も上がっています。

今回の件は、日本のAI政策にとっても示唆に富む問題を提起しています。GENIACプロジェクトは、日本の生成AI自前開発力を高めるために設計された国家事業です。日経新聞の報道によれば、日本企業の主要モデル10本のうち6本がDeepSeekまたはQwenをベースとした二次開発だとも指摘されています。政府が計算資源を補助した成果物がどのような技術基盤の上に立つのか、その情報開示のあり方は、今後の政策設計や補助金制度の透明性基準に影響を与える可能性があります。

ポジティブな視点からみれば、高品質な日本語コーパスによるファインチューニングは、日本語理解・文化的文脈への適応という点で実質的な価値を生みます。無償公開されたモデルが国内のAIアプリ開発を加速させる可能性は十分あります。一方、政治的に敏感な質問に対してモデルの回答が中国的な視点に傾くという報告も一部ユーザーから出ており、ファインチューニングの深度とアラインメントの問題は、業務利用を検討する企業にとって確認が必要な課題です。

楽天グループはリリース時点でこの論争に対する公式コメントを出していません。673GBの重みファイルはHugging Face上で誰でも検証できる状態にあり、技術的な事実は公開されています。この出来事が問いかけるのは、AIモデルの「国産」とは何を意味するのかという、業界全体が向き合うべき根本的な問いでもあります。

【用語解説】

LLM(大規模言語モデル)
Large Language Modelの略。膨大なテキストデータを学習し、文章の生成・翻訳・要約・質問応答などを行うAIモデルの総称である。ChatGPTやGeminiなどもこの分類に入る。

MoE(Mixture of Experts)
モデル全体を複数の「エキスパート」と呼ばれるサブモデルに分割し、入力に応じて一部のエキスパートのみを動作させるアーキテクチャである。全パラメータを常時稼働させる必要がないため、処理の効率化とコスト削減が両立できる。Rakuten AI 3.0の場合、総パラメータ671Bのうち、トークンごとに約37B(楽天の2025年12月公式発表では約40B)のみが有効化される。

ファインチューニング
既存の大規模AIモデルを基盤として、特定の言語・用途・文化に特化したデータで追加学習を行うプロセスである。ゼロからモデルを構築するよりも大幅に低コストで、特定領域における高い性能を実現できる。今回のRakuten AI 3.0もこの手法が用いられているとみられている。

Apache 2.0ライセンス / MITライセンス
いずれもオープンソースソフトウェアの代表的なライセンスである。MITライセンスは非常に制約が少ないが、派生物においても元の著作権表記の保持を義務付けている。Apache 2.0は商用利用・改変・再配布を広く許可し、特許権に関する条項を含む企業向け色の強いライセンスである。今回の論争はMITライセンスの帰属表記義務をめぐるものだった。

ベンチマーク
AIモデルの性能を客観的に比較・評価するための標準テストである。今回は日本固有の文化・歴史知識(JamC-QA)、大学院レベルの推論(MMLU-ProX)、数学競技(MCLM MATH-100)、命令追従(M-IFEval)の4種が用いられた。

アラインメント
AIモデルが人間の意図・価値観・文化的背景に沿った回答をするよう調整するプロセスである。ベースモデルのアラインメントが強固な場合、ファインチューニングだけでは傾向を完全に上書きできないことがある。

config.json
AIモデルの構造や設定を記述した設定ファイルである。Hugging Faceではモデルと一緒に公開されており、誰でも内容を確認できる。今回はこのファイルに「model_type: deepseek_v3」と記載されていたことが論争の発端となった。

【参考リンク】

楽天グループ株式会社 公式サイト(外部)
ECプラットフォームを中心に70以上のサービスを展開するテクノロジーカンパニー。Rakuten AIの専用ページも設けている。

Rakuten AI 3.0 — Hugging Face 公式モデルページ(外部)
モデルカード・設定ファイル・ウェイトファイルが公開。総パラメータ数671B・コンテキスト長128Kなどの技術仕様が確認できる。

DeepSeek 公式サイト(外部)
中国のAI企業DeepSeekのサービスサイト。DeepSeek V3はMITライセンスで公開されており、今回の論争の中心にあるモデルである。

GENIAC — 経済産業省 公式ページ(外部)
国内生成AI開発力強化プロジェクト「Generative AI Accelerator Challenge」の公式情報ページ。採択企業・支援内容が掲載されている。

NEDO(国立研究開発法人 新エネルギー・産業技術総合開発機構)(外部)
GENIACプロジェクトを通じAIモデル開発の計算資源調達・補助を担う国立研究開発法人。今回のトレーニングコストの一部も支援している。

【参考記事】

Rakuten AI 3.0 linked to DeepSeek V3, licensing questioned in Japan(外部)
DeepSeek V3との技術的一致とMITライセンス帰属表記の欠落を詳述。日本企業主要モデル10本中6本がDeepSeekかQwenベースとの指摘も。

Rakuten AI 3.0 Exposed as DeepSeek V3 Rebrand(BigGo ニュース)(外部)
config.jsonの技術仕様がDeepSeek V3と完全一致することを詳細に示し、ライセンス問題の時系列と対応経緯も記録した日本語記事。

Rakuten AI 3.0 Debuts as Cost-Efficient, High-Performance Japanese LLM(The Fast Mode)(外部)
2025年12月発表時の記事。有効化パラメータ約40B・社内比較で最大90%コスト削減効果を報告。楽天公式数値の一次情報として重要。

Users Found DeepSeek V3 References in Config Files(Aihola)(外部)
673GBの重みファイルが誰でも検証可能と指摘。ベンチマーク設計への批判的視点も提示し、透明性と開示の問題を多角的に整理した記事。

Japan Rakuten AI 3.0 Falls into Open Source Controversy(AIBase)(外部)
MITライセンスファイル欠落・コミュニティからの指摘・NOTICEファイル追加という論争の三段階構造をコンパクトに整理した記事。

【関連記事】

楽天AI 2.0|日本語特化型の大規模言語モデルを無償公開(innovaTopia)
Rakuten AI 3.0の前世代モデルを解説。MoE・Apache 2.0・Hugging Face公開という同系譜の先行記事。

楽天×日本HP、オフラインでも使える「Rakuten AI」搭載PCを2026年春発売へ(innovaTopia)
Rakuten AIのデバイス展開戦略を報じた記事。AI 3.0が基盤モデルとして搭載される文脈の直前記事。

楽天市場アプリに「Rakuten AI」搭載、5億点から商品提案|音声・画像検索も対応(innovaTopia)
Rakuten AI 3.0を7,000億パラメータLLMとして本文中で言及している2026年1月公開の関連記事。

GENIAC-PRIZE|懸賞金総額最大約8億円、生成AI社会実装コンテストの受賞結果が3月24日に発表へ(innovaTopia)
今回記事の舞台となるGENIACプロジェクトを主題にした直近の記事。同じ政策・国家事業の文脈。

DeepSeek-V3、671Bパラメータの超大規模AIモデルを公開(innovaTopia)
今回の論争の核心であるDeepSeek V3を解説した先行記事。今回記事の背景理解に最も直結する。

ガバメントAI「源内」、全府省庁18万人へ——国産LLM7選で始まる日本のAI主権(innovaTopia)
「国産AI」の定義と日本のAI政策という今回記事の核心テーマを共有する2026年3月公開の記事。

【編集部後記】

「日本最大のAIモデル」という言葉に、どんな印象を持ちましたか?

オープンソースをベースにすることは、世界中で当たり前の開発スタイルです。それでも「国産」という言葉が持つ意味や、政府資金との関係については、私たちも一緒に考え続けたいと思っています。

AIの「出自」をどう評価するか——そんな問いが、これからの時代にじわじわと重要になってくるのかもしれません。

投稿者アバター
TaTsu
『デジタルの窓口』代表。名前の通り、テクノロジーに関するあらゆる相談の”最初の窓口”になることが私の役割です。未来技術がもたらす「期待」と、情報セキュリティという「不安」の両方に寄り添い、誰もが安心して新しい一歩を踏み出せるような道しるべを発信します。 ブロックチェーンやスペーステクノロジーといったワクワクする未来の話から、サイバー攻撃から身を守る実践的な知識まで、幅広くカバー。ハイブリッド異業種交流会『クロストーク』のファウンダーとしての顔も持つ。未来を語り合う場を創っていきたいです。

読み込み中…