TikTok親会社ByteDanceが「Seed-OSS-36B」リリース:GPT-5を上回る512Kトークン長で完全オープンソース化

[更新]2025年8月22日10:59

TikTok親会社が仕掛けた「AI無料革命」:Seed-OSS-36B、GPT-5の2倍性能で完全オープンソース化 - innovaTopia - (イノベトピア)

ByteDanceのSeed TeamがHugging Faceで新しいオープンソース大規模言語モデルSeed-OSS-36Bを2025年8月20日にリリースした。

このモデルは360億パラメータと512,000トークンの最大コンテキスト長を持っており、約1,600ページのテキストに相当する処理能力を備える。

3つのモデルバリアントが提供される。Seed-OSS-36B-Baseの合成データ版と非合成データ版、およびSeed-OSS-36B-Instructである。全てApache-2.0ライセンスで商用利用が可能だ。

ベンチマーク結果では、Instruct版がAIME24で91.7%、LiveCodeBench v6で67.4を記録した。Base版の合成データ版はMMLU-Proで65.1、MATHで81.7を達成している。モデルは64層構造で155,000トークンの語彙をサポートし、Hugging Face Transformersでのデプロイメントと4ビット・8ビット量子化に対応する。2023年に設立されたSeed Teamが開発を担当している。

From: 文献リンクTikTok parent company ByteDance releases new open source Seed-OSS-36B model with 512K token context

【編集部解説】

ByteDanceのSeed TeamがSeed-OSS-36Bを2025年8月20日にリリースしました。このリリースは、AI業界における複数の重要なシフトを象徴している出来事です。まず注目すべきは、512,000トークンという長コンテキスト処理能力です。これは実用性の観点で画期的といえるでしょう。

約1,600ページの文書を一度に処理できるため、企業の大規模文書解析、法的文書のレビュー、学術研究での文献調査など、これまで人手に頼らざるを得なかった作業の自動化が可能になります。特に日本企業が抱える膨大な内部文書の整理・分析に大きな変革をもたらす可能性があります。

「思考予算」機能は、AIの推論プロセスを制御できる新しいアプローチです。開発者がタスクの複雑度に応じてモデルの思考時間を調整できるため、簡単な質問には迅速に回答し、複雑な問題には時間をかけて深く考察するという、人間らしい処理が可能になります。これにより、コンピューティングリソースの効率的な活用と、応答品質のバランスを取ることができます。

数学・推論分野ではAIME24で91.7%、BeyondAIMEで65を記録し、コーディング分野ではLiveCodeBench v6で67.4を達成しました。Base版の合成データ版はMMLU-Proで65.1、MATHで81.7という結果を示しており、これらは全てオープンソースモデルにおける最先端性能です。

Apache-2.0ライセンスでの完全オープンソース化は、AI民主化の重要な一歩です。ByteDanceはライセンス料やAPI使用料を一切求めず、商用利用を完全に自由化しています。これは、OpenAIやAnthropic等の有料サービスに依存せず、独自のAIソリューションを構築したい企業にとって大きな福音となるでしょう。

一方で、中国企業による高性能AIモデルの無償提供は、地政学的な観点から複雑な議論を呼び起こします。米中間のAI技術競争が激化する中、欧米諸国の企業がどのようにこの技術を活用すべきかは、今後の重要な検討課題となるでしょう。

技術的リスクとしては、360億パラメータという大規模モデルの運用には相応のインフラが必要です。モデルは64層構造で155,000トークンの語彙をサポートし、Hugging Face Transformersでのデプロイメントが可能です。Q4量子化でも20GB以上のVRAMが必要とされており、多くの企業にとってハードウェア投資が課題となります。また、オープンソースモデル特有のセキュリティリスクや、悪用可能性についても十分な検討が必要です。

長期的視点では、このリリースがオープンソースAIの新たな標準を設定する可能性があります。2025年の夏は大手企業が相次いで高性能なオープンソースモデルをリリースしており、無償公開の流れも加速しています。これにより、AI技術へのアクセス障壁が大幅に低下し、イノベーションの民主化が進むと期待されます。

【用語解説】

大規模言語モデル(LLM:Large Language Model)
大量のテキストデータで訓練された人工知能モデルで、自然言語の理解と生成を行う。GPTやClaude等が代表例である。

トークン
AIモデルが処理するテキストの最小単位。英語では1単語が約1-2トークン、日本語では1文字が約2-3トークンに相当する。

コンテキスト長
AIモデルが一度に処理できる入力テキストの最大長。長いほど複雑な文書や会話を理解できる。

量子化(Quantization)
AIモデルの精度を保ちながらファイルサイズを削減する技術。4ビット量子化では元サイズの約1/4に圧縮可能。

ベンチマーク
AIモデルの性能を客観的に測定するための標準化されたテスト。数学問題、推論問題、コーディング問題等がある。

SOTA(State-of-the-Art)
その分野における現時点での最高性能を意味する。

思考予算(Thinking Budget)
AIモデルの推論時間を制御する機能。簡単な質問には短時間、複雑な問題には長時間の思考を割り当てる。

【参考リンク】

ByteDance公式サイト(外部)
TikTokを運営する中国のテクノロジー企業。2012年設立でコンテンツプラットフォーム開発運営

ByteDance Seed Team(外部)
ByteDanceのAI研究チーム。2023年設立で汎用人工知能の新アプローチ発見が目標

Hugging Face(外部)
2016年設立のAIプラットフォーム企業。機械学習モデルとデータセット共有配布を運営

OpenAI(外部)
2015年設立の人工知能研究企業。GPTシリーズやChatGPTの開発元として知られる

【参考記事】

ByteDance Seed-OSS-36B Open Source LLM In-Depth Analysis(外部)
Seed-OSS-36Bの技術詳細と性能分析。12兆トークン訓練データで競合上回る結果詳述

Open-source AI in 2025: Smaller, smarter and more specialized(外部)
2025年オープンソースAI動向分析。効率的小型モデル台頭と特定用途特化重要性解説

GPT-5 Benchmarks(外部)
OpenAI GPT-5性能評価結果。Seed-OSS-36Bとの比較で512Kトークン長確認

What is Hugging Face? – IBM(外部)
Hugging Faceプラットフォーム概要と機能説明。AI開発民主化への貢献を詳述

【編集部後記】

ByteDanceのSeed-OSS-36Bのようなオープンソース大規模言語モデルの登場により、AI技術へのアクセス障壁が急速に低下しています。特に512,000トークンという長文処理能力は、従来では考えられなかった用途を生み出すかもしれません。

皆さんの会社や研究分野では、どのようなAI活用の可能性を感じていらっしゃるでしょうか。また、中国企業による無償AI技術の提供について、どのような影響や懸念をお持ちでしょうか。

innovaTopia読者の皆さんならではの視点で、このAI民主化の波をどう捉え、どう活用していくか、ぜひSNSでお聞かせください。

投稿者アバター
TaTsu
デジタルの窓口 代表 デジタルなことをまるっとワンストップで解決 #ウェブ解析士 Web制作から運用など何でも来い https://digital-madoguchi.com

読み込み中…
advertisements
読み込み中…