DeepSeek V3.1がオープンソースで登場、685億パラメータでClaude 4を上回る性能を実現

 - innovaTopia - (イノベトピア)

中国の人工知能スタートアップDeepSeekが2025年8月19日、685億パラメータのAIモデル「DeepSeek V3.1」をHugging Faceでオープンソースとして公開した。

杭州を拠点とするDeepSeekはHigh-Flyer Capital Managementの支援を受けている。同モデルはAiderコーディングベンチマークで71.6%のスコアを記録し、Claude Opus 4を1%上回った。128,000トークンのコンテキスト長を持ち、BF16からFP8まで複数の精度フォーマットに対応する。

コーディングタスク1件あたり約1.01ドルで処理でき、競合システムの約70ドルと比較して大幅に安価である。モデルサイズは685GBで、チャット、推論、コーディング機能を統合したハイブリッドアーキテクチャを採用している。研究者Rookieはモデルのアーキテクチャにリアルタイムウェブ統合機能と内部推論プロセスを可能にする4つの新しい特別トークンが埋め込まれていることを発見した。OpenAIのGPT-5とAnthropicのClaude 4発表から数週間後のリリースタイミングとなった。

From: 文献リンクDeepSeek V3.1 just dropped — and it might be the most powerful open AI yet

【編集部解説】

DeepSeek V3.1は685億の全パラメータ数を持つMoE(Mixture of Experts)アーキテクチャを採用しており、トークンあたり約37億パラメータを活性化する設計になっています。

この技術的アプローチがなぜ重要なのでしょうか。従来の巨大言語モデルは、すべてのパラメータを同時に動作させる必要がありましたが、DeepSeekのMoE設計では、必要な専門家(Expert)だけを選択的に活用します。これは、128人の専門家がいる会議室で、各質問に対して最も適した2人だけが回答するようなシステムです。

コスト面での革新も注目すべき点です。コーディングタスク1件あたり約1ドルという価格設定は、競合の70ドルと比較して圧倒的な優位性を示しています。これは企業にとって年間数百万ドルの節約につながる可能性があり、AI導入の敷居を大幅に下げることになります。

オープンソース戦略の意味合いも深刻に受け止める必要があります。OpenAIやAnthropicがプロプライエタリモデルとして厳格に管理している一方で、DeepSeekは誰でもダウンロード、修正、展開できる形で提供しています。これは、AI技術の民主化を進める一方で、既存の収益モデルに根本的な挑戦を突きつけています。

技術的な特徴として、128,000トークンの長いコンテキスト長は約400ページの書籍を一度に処理できることを意味します。また、BF16からFP8まで複数の精度フォーマットに対応することで、異なるハードウェア環境での最適化が可能です。

地政学的な影響も無視できません。米中の技術競争が激化する中で、DeepSeekのような中国企業が世界トップレベルの性能を持つオープンソースモデルを提供することは、技術的優位性の分散化を意味しています。これは長期的には、単一国家や企業によるAI技術独占の終焉を示唆している可能性があります。

潜在的なリスクとしては、オープンソースモデルの悪用可能性、品質管理の困難さ、そしてサポート体制の不透明さが挙げられます。また、685GBという巨大なモデルサイズは、多くの企業がクラウドサービスに依存することを意味し、新たな依存関係を生み出す可能性もあります。

将来への影響を考えると、このような高性能オープンソースモデルの登場は、AI業界全体の競争環境を根本的に変える可能性があります。企業は高額なプロプライエタリモデルの価値を再考し、AIサービスプロバイダーはより付加価値の高いサービスへの転換を迫られるでしょう。

【用語解説】

MoE(Mixture of Experts): 巨大なモデルの中で、タスクに応じて最適な専門家(Expert)だけを選択的に活用するアーキテクチャ。全パラメータを同時に動作させる従来の方式と比較して、計算効率が大幅に向上する。

パラメータ: AI言語モデルが学習によって獲得した知識や能力を数値化したもの。一般的にパラメータ数が多いほど高性能だが、計算コストも増大する。

コンテキスト長: AIモデルが一度に処理できるテキストの長さを示す指標。DeepSeek V3.1の128,000トークンは約400ページの書籍に相当し、長文の処理や会話の継続性において重要な要素である。

Aiderコーディングベンチマーク: プログラミング能力を評価する標準的な指標の一つ。71.6%という数値は業界でトップクラスの性能を示している。

【参考リンク】

DeepSeek AI(公式サイト)(外部)
DeepSeekの公式サイト。AIチャットの利用、APIの申し込み、最新技術情報を確認できる。

Hugging Face – DeepSeek(外部)
DeepSeekのオープンソースモデルが公開されているプラットフォーム。V3.1を含む各種モデルのダウンロードと詳細情報を確認できる。

High-Flyer Capital Management(公式サイト)(外部)
DeepSeekの親会社である中国の量的投資ファンドの公式サイト。AI技術に特化したヘッジファンドとして、深層学習アルゴリズムを活用した投資戦略を展開している。

OpenAI(公式サイト)(外部)
ChatGPTやGPT-5を開発するアメリカのAI企業。DeepSeekの競合他社として言及されている主要なプロプライエタリAIプロバイダー。

Anthropic(公式サイト)(外部)
Claudeシリーズを開発するAI安全研究企業。AI安全性と信頼性を重視する哲学でDeepSeekとは対照的なクローズドソース戦略を採用している。

【参考動画】

【参考記事】

DeepSeek-V3:671Bパラメータを備える革新的MoE大規模言語モデル(外部)
DeepSeek V3の正確なパラメータ数(671B)とMoEアーキテクチャについて詳細に解説した技術記事。

China’s DeepSeek Releases V3.1, Boosting AI Model’s Capabilities – Bloomberg(外部)
DeepSeek V3.1のリリースを報じるBloombergの記事。コンテキストウィンドウの拡張(64Kから128Kへ)について詳細に言及。

【編集部後記】

DeepSeek V3.1の登場は、私たちがAIをどう捉え、活用していくかを改めて考える機会かもしれません。高性能なAIが無料で使えるようになった今、皆さんの業務や創作活動にどのような変化が生まれるでしょうか。また、オープンソースAIの普及が進む中で、日本の企業や個人はこの技術革新の波にどう向き合っていけばよいのか、一緒に考えてみませんか。皆さんの率直なご意見や体験談をお聞かせいただければと思います。

投稿者アバター
乗杉 海
新しいものが大好きなゲーマー系ライターです!

読み込み中…
advertisements
読み込み中…