advertisements

Sakana Chat 公開|DeepSeek・Llama を日本仕様に再設計した「Namazu」とは何か

Sakana AI は、2026年3月24日に発表したオープンウェイト基盤モデルの事後学習プロジェクトとして、試作モデルシリーズ「Namazu」(α版)を開発した。

ラインナップは Namazu-DeepSeek-V3.1-Terminus、Llama-3.1-Namazu-405B、Namazu-gpt-oss-120B の 3 モデルである。 ベースモデルの DeepSeek-V3.1-Terminus は関連質問の 72% に対して回答を拒否していたが、Namazu-DeepSeek-V3.1-Terminus ではほぼ 0% に改善された。

あわせて Web 検索機能を搭載したチャットサービス「Sakana Chat」(https://chat.sakana.ai)を一般公開した。 公開前には約 1,000 名を対象にβテストを実施した。 GMO インターネット株式会社は 2025 年 10 月から 11 月にかけて、GMO GPU クラウドの計算リソースを Sakana AI に提供した。

From: 文献リンク最大規模のオープン基盤モデルを各国仕様へ適応させる事後学習技術の研究開発(Sakana AI)

【編集部解説】

AI 開発の最前線では、いま「誰が大規模モデルを作れるか」よりも「どう使いこなすか」という競争に軸足が移りつつあります。Sakana AI が今回打ち出した「Namazu」シリーズは、まさにその文脈を象徴するプロジェクトです。

事前学習(pre-training)には膨大な計算コストが必要で、最先端の競争に参加できるのは米国・中国の一握りのプレイヤーに限られてきました。一方で DeepSeek や Meta、OpenAI といった組織がモデルの重みをオープンに公開する動きが加速しており、Sakana AI はその「オープン化の波」を逆手に取った形です。

今回の技術的な核心は「事後学習(post-training)」です。平たく言えば、他社が作った優秀なモデルを受け取り、「日本仕様」に上書き調整する技術です。元の性能は損なわず、バイアスや検閲の影響だけを取り除く——この一見シンプルに見える処理が、実は非常に難易度の高い技術課題です。

特に注目すべきは、DeepSeek-V3.1-Terminus に関するデータです。同モデルは政治・歴史・外交に関連する質問の 72% に対して回答を拒否することが、Sakana AI の独自ベンチマークで確認されました。Namazu-DeepSeek-V3.1-Terminus ではそれがほぼ 0% に改善されています。これは単なる性能改善ではなく、「情報へのアクセス権」という観点でも重要な意味を持ちます。

なお、この自己検閲の傾向については、国内研究者の伊藤・高口(2025)による先行研究でも指摘されており、Namazu はその課題に対して技術的なアプローチで応えた形といえます。

ポジティブな側面から見ると、日本企業や公共機関が海外製 AI を導入する際の最大の懸念点——「このモデルはどこの国の価値観で動いているのか」——に対して、技術的な回答を示した点は高く評価できます。日本独自のデータセットを使って中立性・事実正確性を改善したという事実は、AI の「主権」を国ごとに取り戻す試みとも言えます。

一方でリスクも直視する必要があります。Namazu はあくまで他社のベースモデルを前提とした「2次加工」であり、ベースモデル側にアップデートや仕様変更があった場合、適応作業をやり直す必要が生じます。また、Sakana AI が使用した「中立性・正確性」評価の独自ベンチマークの詳細は、本稿執筆時点では公開されていません。評価基準自体が誰によって設計されたかという問いは、公正性の観点から今後も継続的に問われるでしょう。

規制や制度面への影響も見逃せません。G7 各国が AI ガバナンスの枠組みを整備する中で、「自国仕様に調整されたモデル」の存在は、AI の透明性・説明責任を問う議論を一段と複雑にします。特に政治・外交トピックへの回答方針は、メディアリテラシーや情報安全保障の観点と深く絡み合います。

長期的な視点では、今回の Namazu はあくまで「α版」であり、技術詳細を記したテクニカルレポートと一部モデルウェイトの公開が予定されています。オープンソースコミュニティへの貢献が進めば、同種の「ローカライズ後学習」技術は日本以外の国々にも広がり、AI のグローバルな多極化を後押しする可能性があります。Sakana Chat を通じて蓄積されるユーザーフィードバックが、次世代モデルへどう反映されるかが今後の注目点です。

【用語解説】

LLM(大規模言語モデル)
Large Language Model の略。膨大なテキストデータを学習させることで、文章の生成・翻訳・要約・質問応答などを行う AI モデルの総称。GPT や Llama などが代表例だ。

事前学習(pre-training)
LLM を構築する最初のステップで、インターネット上の大量テキストデータをもとにモデルの基礎能力を習得させる工程。膨大な計算資源を必要とするため、開発できるのは世界でも限られた組織に限られる。

事後学習(post-training)
事前学習済みのモデルに対し、特定の用途や価値観に合わせた追加学習を施す工程。指示への従い方・回答のトーン・バイアスの調整などがこのステップで行われる。Namazu が採用しているのがこの手法だ。

オープンウェイトモデル
モデルの重み(パラメータ)を一般に公開しているモデルのこと。誰でも無料でダウンロードして利用・改変ができる。DeepSeek や Llama などが代表例で、商用・研究目的を問わず活用されている。

【参考リンク】

Sakana AI 公式サイト(外部)
東京を拠点とする日本発の AI スタートアップ。Namazu シリーズと Sakana Chat の開発元。

Sakana Chat(外部)
Namazu モデル(α版)搭載の無料 AI チャット。Web 検索機能を統合し、日本国内向けに公開中。

DeepSeek 公式サイト(外部)
中国発のオープンウェイト LLM 開発企業。DeepSeek-V3.1-Terminus は Namazu のベースモデルの一つ。

Meta AI(Llama)公式ページ(外部)
Meta の LLM「Llama」シリーズ公式ページ。Llama-3.1-405B が Namazu のベースモデルに採用されている。

OpenAI 公式サイト(外部)
GPT シリーズを開発する米国の AI 企業。Namazu-gpt-oss-120B のベースとなるモデルを公開している。

GMO インターネット株式会社 公式サイト(外部)
Namazu 訓練に GMO GPU クラウドの計算リソースを 2025 年 10〜11 月に提供した日本の IT グループ。

【参考動画】

【参考記事】

Sakana AI launches Sakana Chat, a free AI chat service for Japan(GIGAZINE)(外部)
Namazu と Sakana Chat の公開を英語で報じた記事。日本国内限定公開やデータ保存仕様を確認するために参照した。

新 AI モデル「Namazu」発表 AI チャット「Sakana Chat」も公開(ITmedia NEWS)(外部)
国内 IT メディアによる詳報。日本における表現の自由への準拠という評価視点を補足参照した記事。

Sakana AI、DeepSeek でも「日本仕様」にできる試作モデル「Namazu」発表(Impress Watch)(外部)
「日本仕様」という切り口で Namazu のポジショニングを解説。編集部解説の構成参考として活用した記事。

Sakana AI、日本特化の LLM「Namazu」と Web 検索付きチャット「Sakana Chat」を公開(gihyo.jp)(外部)
日本語ベンチマーク(Nejumi・Swallow・JamC-QA)の評価結果の補足確認に使用した技術系メディア記事。

【編集部後記】

「AI は誰のものか」という問いが、静かに形になり始めている気がします。Sakana Chat はいま誰でも試せる状態です。実際に触れてみて、海外製のモデルと比べてどう感じるか——その違和感や発見こそが、次の問いを生むのではないでしょうか。

みなさんはどんな問いを投げかけてみますか?

投稿者アバター
TaTsu
『デジタルの窓口』代表。名前の通り、テクノロジーに関するあらゆる相談の”最初の窓口”になることが私の役割です。未来技術がもたらす「期待」と、情報セキュリティという「不安」の両方に寄り添い、誰もが安心して新しい一歩を踏み出せるような道しるべを発信します。 ブロックチェーンやスペーステクノロジーといったワクワクする未来の話から、サイバー攻撃から身を守る実践的な知識まで、幅広くカバー。ハイブリッド異業種交流会『クロストーク』のファウンダーとしての顔も持つ。未来を語り合う場を創っていきたいです。

読み込み中…