Googleは2026年2月19日、AIモデル「Gemini 3.1 Pro」を発表した。
これはGemini 3シリーズを基盤とし、コア推論能力を強化したモデルである。新しい論理パターンの解決能力を評価するベンチマークARC-AGI-2において、検証済みスコア77.1%を達成した。これはGemini 3 Proの推論性能の2倍以上に相当する。
開発者向けにはGoogle AI Studio、Gemini CLI、Google Antigravity、Android StudioのGemini APIを通じてプレビュー版として提供される。エンタープライズ向けにはVertex AIおよびGemini Enterprise、コンシューマー向けにはGeminiアプリおよびNotebookLMで展開される。
GeminiアプリではGoogle AI ProおよびUltraプランのユーザーに対し、より高い利用上限で提供されると報じられている。NotebookLMではProおよびUltraユーザー限定で利用可能である。現時点ではプレビュー版としてのリリースであり、近日中に一般提供を開始する予定である。
From:
Gemini 3.1 Pro: A smarter model for your most complex tasks
【編集部解説】
Gemini 3.1 Proの登場は、AIモデルの競争において注目すべき転換点です。まず理解しておきたいのは、今回のバージョニングが持つ意味の大きさです。これまでGeminiシリーズのメジャーアップデートは「.5」刻みで行われてきましたが、「.1」というインクリメントはGemini史上初めてのことです。これは、Googleがモデルの改善サイクルを大幅に加速させ、競合に対してより機動的に対応する戦略を取っている可能性を示唆していると考えられます。
記事で強調されているARC-AGI-2のスコア77.1%について補足します。ARC-AGI-2は、訓練データの暗記ではなく、未知の論理パターンを解く「汎化能力」を評価するベンチマークです。前世代のGemini 3 Proは31.1%でした。複数の第三者メディアの報道によれば、競合モデルのスコアはClaude Opus 4.6が68.8%、GPT-5.2が52.9%とされており、Gemini 3.1 Proがこの分野で大きくリードしていることがわかります。ただしARC-AGI-2は「人間なら全タスクを解ける(100%)」ことを前提に設計されており、77%は高水準ではあるものの、到達点ではないことも押さえておく必要があります。
技術面では、VentureBeatの報道によると、Gemini 3.1 Proには「思考レベル」を低・中・高の3段階で調整できる機能が搭載されています。これは先行してリリースされたGemini 3 Deep Thinkの推論技術を、より軽量な形で一般モデルに還元したものと見られます。開発者はタスクの複雑さに応じて推論の深さを切り替えることで、レイテンシーとコストを最適化できるようになります。
コスト面も重要なポイントです。複数のメディアが報じているAPI価格は、入力100万トークンあたり2ドル、出力100万トークンあたり12ドル(20万トークン以下の場合)で、Gemini 3 Proと同額に据え置かれています。一方、The New Stackの報道によれば、競合のClaude Opus 4.6は入力5ドル、出力25ドルとされており、同等以上のベンチマーク性能をおよそ半額で提供している計算になります。エンタープライズ利用においては、この価格差が採用判断に大きく影響する可能性があります。
一方で、すべての領域でGemini 3.1 Proが圧倒しているわけではありません。コーディングベンチマークのSWE-Bench Verifiedでは80.6%を記録しましたが、Claude Opus 4.6の80.8%にわずかに及びません。また、専門家タスクの評価であるGDPval-AA Eloでは、Claude Sonnet 4.6が1633、Claude Opus 4.6が1606であるのに対し、Gemini 3.1 Proは1317と差が開いています。ベンチマークはあくまで一側面の評価であり、実際のワークフローでの性能は用途によって異なることを念頭に置くべきでしょう。
今回のリリースは、Googleがエージェント型AIの強化を重視している流れと整合しています。GoogleはGemini 3.1 Proの提供チャネルとして、新たなエージェント型開発プラットフォーム「Google Antigravity」を挙げています。また、Googleのブログ記事では「野心的なエージェント型ワークフロー」のさらなる進化を明示しており、AIが単に質問に答える存在から、自律的にタスクを遂行する「労働者」へと進化する方向性が鮮明になっています。
長期的な視点では、2025年11月のGemini 3 Proリリースからわずか3カ月でこの水準の改善が実現されたという事実そのものが、AI開発の加速度を如実に物語っています。The Registerが指摘するように、Anthropic、OpenAI、そしてGoogleの三者間での競争は、数カ月ではなく数週間単位で応酬が繰り返される局面に入りました。開発者やエンタープライズにとって、採用するモデルの選定基準が絶えず変動する時代が到来しているといえます。
【用語解説】
ARC-AGI-2
AIモデルが訓練データに含まれない未知の論理パターンをどれだけ解けるかを評価するベンチマーク。パターンの暗記ではなく、汎化能力(新しい問題への応用力)を測定する点が特徴である。初代ARC-AGI-1が高スコアで飽和状態になったため、より難易度を上げた後継版として設計された。
エージェント型AI(Agentic AI)
人間からの逐一の指示を待たず、AIが自律的に複数のステップを計画・実行してタスクを完了する仕組み。ファイル操作、コード実行、API呼び出しなどを組み合わせた長期的なワークフローの自動化を目指す概念である。
GPQA Diamond
大学院博士課程レベルの科学的知識を問うベンチマーク。物理学、化学、生物学などの高度な専門問題で構成され、モデルの専門知識と推論能力を複合的に評価する。
SWE-Bench Verified
実際のGitHubリポジトリから抽出されたソフトウェアエンジニアリングの課題を用い、AIモデルがバグ修正やコード変更を正しく行えるかを評価するベンチマークである。
SVG(Scalable Vector Graphics)
XMLベースのベクター画像形式。ピクセルではなく数学的な記述で図形を定義するため、拡大・縮小しても画質が劣化せず、ファイルサイズも小さい。
【参考リンク】
Google DeepMind – Gemini 3.1 Pro モデルカード(外部)
Gemini 3.1 Proの技術仕様、ベンチマーク結果、安全性評価をまとめた公式ページ。
Google AI Studio(外部)
Gemini APIを使った開発・プロトタイピングが可能なGoogleの開発者向けプラットフォーム。
Google Antigravity(外部)
Googleが提供するエージェント型AI開発プラットフォーム。自律的なワークフロー構築を支援する。
Vertex AI(Google Cloud)(外部)
Google Cloudのエンタープライズ向けAIプラットフォーム。企業のセキュリティ基盤上で利用できる。
NotebookLM(外部)
GoogleのAI搭載リサーチ・ノートツール。ProおよびUltraユーザー限定でGemini 3.1 Proを利用可能。
Gemini CLI(外部)
ターミナルから直接Geminiモデルを利用できるコマンドラインツール。開発者向けに提供されている。
ARC Prize(ARC-AGI)(外部)
AIの汎化能力を評価するARC-AGIベンチマークの公式サイト。リーダーボードを公開している。
Artificial Analysis(外部)
AIモデルの性能・価格・速度を第三者の立場から比較・評価する独立系分析プラットフォーム。
【参考記事】
Google launches Gemini 3.1 Pro, retaking AI crown with 2X+ reasoning performance boost(外部)
主要ベンチマークのスコアとAPI価格の据え置きについて網羅的に報じたVentureBeatの分析記事。
Google Gemini 3.1 Pro first impressions: a ‘Deep Think Mini’ with adjustable reasoning on demand(外部)
3段階の思考レベル調整機能と初の「.1」バージョニングの意義を分析したVentureBeatの記事。
Google’s Gemini 3.1 Pro is mostly great(外部)
Claude Opus 4.6との価格比較や、コーディング分野での競合優位性を検証したThe New Stackの記事。
Google germinates Gemini 3.1 Pro in ongoing AI model race(外部)
GoogleのQ4 2025決算データとAI競争の加速を報じたThe Registerの記事。
Gemini 3.1 Pro Leads Most Benchmarks But Trails Claude Opus 4.6 in Some Tasks(外部)
Gemini 3.1 Proが劣後するベンチマーク領域を具体的数値とともに報告した比較分析記事。
Google Gemini 3.1 Pro Doubles Performance Over Gemini 3 Pro On ARC-AGI 2, Tops Benchmark(外部)
ARC-AGI両リーダーボードでの首位獲得と性能対コストの優位性を詳述したOfficechaiの分析記事。
【編集部後記】
AIモデルの進化が加速する中、皆さんはどのモデルを日常の仕事や創作に取り入れていますか?
Gemini、Claude、GPTと選択肢が増え続ける今、「自分にとって本当に使いやすいAI」は何かを試しながら見つけていく時代になったように感じます。皆さんが実際に触れて感じたことを、ぜひSNSで聞かせていただけるとうれしいです。







































