advertisements

テンセント混元、翻訳モデル1.5をオープンソース化。1GBメモリで商用API超え

テンセント混元、翻訳モデル1.5をオープンソース化。1GBメモリで商用API超え - innovaTopia - (イノベトピア)

テンセント混元は12月30日、翻訳モデル1.5バージョンをオープンソース化した。Tencent-HY-MT1.5-1.8BとTencent-HY-MT1.5-7Bの2つのモデルを公開し、33言語の相互翻訳および5つの民族言語・方言に対応する。中国語、英語、日本語のほか、チェコ語、マラーティー語、エストニア語、アイスランド語などの少数言語も含まれる。

両モデルはテンセント混元公式サイト、Github、Huggingfaceで公開されている。HY-MT1.5-1.8Bは1GBのメモリで動作し、50トークンの処理時間は0.18秒である。HY-MT1.5-7BはWMT25コンペティションで30言語翻訳チャンピオンを獲得したモデルのアップグレード版である。FLORES-200品質評価で1.8Bモデルは78%のスコアを獲得し、Gemini-3.0-Proの90パーセンタイルレベルに達した。技術的にはOn-Policy Distillation戦略を採用している。

モデルはテンセント会議、企業微信、QQブラウザなどで実装されており、Arm、クアルコム、Intel、沐曦などのプラットフォームが展開をサポートする。

From: 文献リンク腾讯混元开源翻译模型 1.5:手机 1GB 内存即可运行,效果超越商用 API

【編集部解説】

テンセントが発表した混元翻訳モデル1.5は、AI翻訳の民主化において重要な転換点となる可能性があります。特に注目すべきは、1.8Bパラメータのモデルがスマートフォン上で動作する点です。

従来の高性能翻訳モデルは数十億から数千億のパラメータを必要とし、クラウド環境でしか動作しませんでした。しかし今回の1.8Bモデルは、1GBという極めて少ないメモリで動作しながら、Gemini 3.0 Proのような大規模モデルの90パーセンタイル水準に達しています。これは、オンデバイスAIの可能性を大きく広げる成果といえます。

技術的な革新の核心は「On-Policy Distillation」という手法にあります。これは7Bモデルを教師として1.8Bモデルを訓練する蒸留技術ですが、単なる模倣ではなく、予測分布の偏差を修正しながら学習させることで、小規模モデルでも高精度を実現しています。

実用面では、オフライン動作が可能な点が画期的です。インターネット接続なしでリアルタイム翻訳ができるため、プライバシー保護や通信コストの削減、ネットワーク環境に依存しない利用が可能になります。特に医療や法律など機密性の高い分野での活用が期待されます。

また、カスタム用語集や長文の文脈理解、フォーマット保持機能により、専門分野での翻訳精度が向上します。これまでの機械翻訳では難しかった技術文書や契約書の翻訳も、実用レベルに近づく可能性があります。

ただし、オープンソース化による懸念も存在します。翻訳モデルは誤情報の拡散や文化的ニュアンスの誤訳を通じて、意図しない誤解を生む可能性があります。また、33言語対応とはいえ、言語によって品質差がある可能性は否めません。

今回のリリースは、グーグルやメタなどの競合に対するテンセントの戦略的な動きでもあります。オープンソース化により開発者コミュニティを取り込み、モデルの改善を加速させる狙いがあると考えられます。

【用語解説】

パラメータ(B)
AIモデルの規模を示す指標で、Bは「Billion(10億)」を意味する。1.8Bは18億パラメータ、7Bは70億パラメータを表す。一般的にパラメータ数が多いほどモデルの性能は高くなるが、必要な計算リソースやメモリも増加する。

FLORES-200
Metaが開発した多言語機械翻訳評価のための標準ベンチマークデータセット。200以上の言語をカバーし、低リソース言語を含む翻訳品質を評価するための並列文を提供している。機械翻訳研究における主要な評価基準の一つとなっている。

WMT25(Workshop on Machine Translation 2025)
機械翻訳分野における世界最大級の国際コンペティション。2025年11月に中国・蘇州で開催された第10回会議で、研究者や開発者が翻訳モデルの性能を競う場となっている。自動評価と人間評価の両方で翻訳品質を測定する。

Gemini 3.0 Pro
グーグルが開発した大規模言語モデル。数千億のパラメータを持つクローズドソースモデルで、翻訳を含む多様なタスクで高い性能を示している。テンセントの混元翻訳モデルは、このモデルの90パーセンタイル水準に達したとされる。

On-Policy Distillation(オンポリシー蒸留)
小規模な学生モデルが自身の生成した出力から学習し、大規模な教師モデルがそれにフィードバックを与える機械学習手法。従来のオフポリシー蒸留と異なり、学生モデル自身の誤りから学習するため、実際の推論時の分布ミスマッチを回避でき、より効率的な知識転移が可能となる。

オンデバイスAI
クラウドではなく、スマートフォンやタブレットなどのデバイス上で直接AI処理を実行する技術。インターネット接続が不要でプライバシー保護に優れ、レスポンスも高速だが、デバイスのメモリや計算能力の制約を受ける。

量子化(Quantization)
AIモデルのパラメータ精度を下げることでメモリ使用量と計算量を削減する技術。例えば32ビット浮動小数点数を8ビット整数に変換することで、モデルサイズを大幅に縮小しながら性能低下を最小限に抑える。

【参考リンク】

テンセント混元(Tencent Hunyuan)公式GitHubリポジトリ(外部)
混元翻訳モデル1.5の公式リポジトリ。モデルのダウンロード、技術仕様、使用方法、サンプルコードなどが公開されている。

Hugging Face – HY-MT1.5-1.8B(外部)
1.8Bパラメータモデルのダウンロードページ。transformersライブラリを使用した実装例や推論パラメータの推奨設定が記載されている。

Hugging Face – HY-MT1.5-7B(外部)
7Bパラメータモデルのダウンロードページ。WMT25チャンピオンモデルのアップグレード版に関する詳細情報と使用例を提供している。

FLORES-200ベンチマーク(外部)
Meta(旧Facebook)が開発した多言語機械翻訳評価のための標準ベンチマーク。200以上の言語をカバーし、低リソース言語の翻訳品質評価に使用される。

WMT25(第10回機械翻訳会議)(外部)
2025年11月に中国・蘇州で開催される機械翻訳分野の国際会議。コンペティション結果や参加システムの詳細が公開される。

【参考記事】

Tencent Hunyuan Open-Sources Translation Model 1.5: Runs on 1GB Phone Memory, Outperforms Commercial APIs – Pandaily(外部)
2025年12月30日の混元翻訳モデル1.5のリリース発表を報じた英語記事。1.8Bモデルの性能と特徴を詳述。

GitHub – Tencent-Hunyuan/HY-MT(公式リポジトリ)(外部)
混元翻訳モデル1.5の公式技術文書。33言語対応、用語集カスタマイズ、文脈翻訳、フォーマット保持機能を備える。

Tencent’s open-source translation model beats Google, OpenAI in top global AI competition – South China Morning Post(外部)
2025年9月のWMT25予備結果を報じた記事。Hunyuan-MT-7Bが31言語ペアのうち30で1位を獲得。

On-Policy Distillation of Language Models: Learning from Self-Generated Mistakes – arXiv(外部)
On-Policy Distillation(GKD)手法を提案した学術論文。学生モデルが自己生成した出力から学習する手法を説明。

Tencent open sources two high-performing translation models – The Decoder(外部)
テンセント混元翻訳モデルの性能分析記事。Google Translateと比較して15〜65%の性能向上を報告。

WMT25 Preliminary Results Show Gemini-2.5-Pro and GPT-4.1 Lead AI Translation – Slator(外部)
WMT25の予備結果に関する業界分析記事。Gemini-2.5-ProとGPT-4.1のリード、評価方法の詳細を掲載。

Scaling neural machine translation to 200 languages – Nature(外部)
FLORES-200ベンチマーク開発の背景となったMetaのNo Language Left Behindプロジェクトに関する学術論文。

【編集部後記】

わずか1GBで動作する翻訳モデルが、プライバシーを守りながら商用APIを超える性能を発揮する。この技術革新は、私たちの日常にどんな変化をもたらすのでしょうか。

医療記録や法律文書など、これまでクラウドに送信するのをためらっていた機密情報も、デバイス上で安全に翻訳できる時代が来ようとしています。また、ネット環境のない場所でも高品質な翻訳が可能になれば、言語の壁はさらに低くなるかもしれません。

みなさんは、オフラインで動く高性能翻訳があれば、どんな場面で活用したいですか。旅先での会話、仕事での資料作成、それとも新しい学習方法でしょうか。オープンソース化されたこの技術が、どのような未来を切り拓いていくのか、一緒に見守っていきたいと思います。

投稿者アバター
Ami
テクノロジーは、もっと私たちの感性に寄り添えるはず。デザイナーとしての経験を活かし、テクノロジーが「美」と「暮らし」をどう豊かにデザインしていくのか、未来のシナリオを描きます。 2児の母として、家族の時間を豊かにするスマートホーム技術に注目する傍ら、実家の美容室のDXを考えるのが密かな楽しみ。読者の皆さんの毎日が、お気に入りのガジェットやサービスで、もっと心ときめくものになるような情報を届けたいです。もちろんMac派!

読み込み中…

innovaTopia の記事は、紹介・引用・情報収集の一環として自由に活用していただくことを想定しています。

継続的にキャッチアップしたい場合は、以下のいずれかの方法でフォロー・購読をお願いします。