AI研究の先駆者であるジェフリー・ヒントン氏が2025年12月2日のBusiness Insiderのインタビューで、GoogleがOpenAIを追い抜き始めていると述べた。ヒントン氏はトロント大学名誉教授で、かつてGoogle Brainに在籍していた人物である。
GoogleはGemini 3とNano Banana Pro画像生成モデルのリリースで広く称賛を受けており、一部の技術専門家はGemini 3がOpenAIのGPT-5を超えたと評価している。ChatGPTのリリース後に「コードレッド」を宣言したGoogleに対し、現在はOpenAIが警戒態勢を取っているとの報道がある。
ヒントン氏は、Googleが独自のAIチップを製造していることが大きな優位性であり、優れた研究者、大量のデータ、データセンターを持つGoogleが勝利するだろうと予測した。
GoogleはMetaに数十億ドル規模でAIチップを供給する契約を結ぶ可能性が報じられ、株価が上昇した。Googleはトロント大学にヒントン氏を記念して1,000万カナダドルを寄付し、同大学も同額を拠出してHinton Chair in Artificial Intelligenceを設立する。
ヒントン氏は2023年にGoogleを退社し、AIのリスクについて警鐘を鳴らしており、2024年にノーベル物理学賞を共同受賞した。
【編集部解説】
AI研究の歴史を築いてきたジェフリー・ヒントン氏の発言は、単なる予測ではなく、業界構造の変化を示唆する重要なシグナルです。ヒントン氏は2024年にノーベル物理学賞を受賞した人物で、ニューラルネットワークの基礎となるボルツマンマシンを開発し、現代の機械学習の礎を築きました。
注目すべきは、GoogleがOpenAIを追い抜くのに「時間がかかりすぎた」というヒントン氏の指摘です。Googleは実はTransformer(変換器)アーキテクチャを発明した企業であり、大規模チャットボット技術でも先行していました。しかし2016年のMicrosoftのTayチャットボットの失敗を目の当たりにし、評判を重視するあまり慎重になりすぎたという経緯があります。
技術的な優位性について、ヒントン氏はGoogleの自社製AIチップ(TPU:Tensor Processing Unit)の存在を強調しています。MetaがGoogleのTPUをレンタルし、2027年には自社データセンターに導入する数十億ドル規模の契約交渉が進んでいるとの報道もあり、Google CloudがNvidiaのデータセンター収益の10%を獲得できる可能性が指摘されています。Nvidiaが2025年第2四半期だけで510億ドル以上のデータセンター収益を上げていることを考えると、これは数百億ドル規模のビジネスチャンスです。
性能面では、Gemini 3がGPT-5を上回るベンチマーク結果が複数報告されています。特に複雑な推論を要するHumanity’s Last Examベンチマークでは、Gemini 3が37.5%のスコアを記録し、GPT-5を約11%上回りました。またコンテキストウィンドウでは、Gemini 3 Proが入力104万8,576トークン、出力6万5,536トークンを処理できるのに対し、GPT-5.1 Thinkingは19万6,000トークンにとどまっています。長文書類の分析や複雑なマルチモーダル処理では、この差が実用上の大きなアドバンテージとなるでしょう。
一方で、Googleの過去の失敗も見逃せません。2024年には画像生成AIが歴史的に不正確な画像を生成したことが批判され、一時停止を余儀なくされました。AI検索の初期バージョンでは「ピザにチーズを固定するために接着剤を使う」といった非常識なアドバイスを生成する問題もありました。技術的な優位性と実用化のバランスは、今後も課題となります。
ヒントン氏自身は2023年にGoogleを退社後、AIが人類を超える知能を持つリスクや雇用への影響について警鐘を鳴らし続けています。技術競争の勝者を予測する一方で、AI開発そのもののリスクを訴える彼の姿勢は、この分野が直面する根本的なジレンマを体現しているといえるでしょう。
【用語解説】
ジェフリー・ヒントン(Geoffrey Hinton)
英国生まれのコンピューター科学者で、「AIのゴッドファーザー」と呼ばれる。ニューラルネットワークとディープラーニングの先駆者であり、逆伝播アルゴリズムの共同開発者。2024年にノーベル物理学賞を受賞した。
Google Brain
Googleの人工知能研究部門。2023年にDeepMindと統合されGoogle DeepMindとなった。ヒントン氏は2013年から2023年までこの部門に在籍していた。
Transformer(変換器)
2017年にGoogleの研究者が発表した深層学習モデルのアーキテクチャ。現在の大規模言語モデル(LLM)の基盤技術となっている。「Attention is All You Need」という論文で提唱された。
TPU(Tensor Processing Unit)
Googleが独自開発した機械学習専用のプロセッサ。NvidiaのGPUと異なり、AI計算に特化して設計されており、TensorFlowなどのフレームワークで高速な推論・学習を実現する。
コンテキストウィンドウ
AIモデルが一度に処理できる入力と出力のテキスト量を示す指標。トークン数で表される。大きいほど長文書類の分析や複雑な対話が可能になる。
ベンチマーク
AIモデルの性能を測定するための標準化されたテスト。FrontierMath、MMLU、HumanEvalなど、目的別に複数の評価指標が存在する。
【参考リンク】
Google DeepMind(外部)
GoogleのAI研究開発部門。Gemini 3やNano Banana Proなどの最先端AIモデルを開発している。
OpenAI(外部)
ChatGPTとGPTシリーズを開発する組織。現在はMicrosoftが主要な投資家となっている。
University of Toronto – Department of Computer Science(外部)
ヒントン氏が名誉教授を務める大学。AI研究の世界的拠点の一つである。
The Nobel Prize – Geoffrey Hinton(外部)
ヒントン氏の2024年ノーベル物理学賞受賞に関する公式情報ページ。
Google Cloud TPU(外部)
GoogleのTensor Processing Unitに関する公式ページ。クラウドサービスとして利用できる。
【参考記事】
Meta in Talks to Tap Google’s TPU Chips(外部)
MetaがGoogleのTPUを採用することで、Nvidia一強体制に変化が生じる可能性を分析。
Gemini 3 vs GPT-5 vs Claude 4.5 vs Grok 4.1(外部)
主要AIモデルのベンチマーク比較。FrontierMathでGemini 3が37.5%のスコアを記録。
Gemini 3 Pro vs GPT 5.1: which is better?(外部)
Gemini 3 ProとGPT-5.1の詳細な性能比較。コンテキストウィンドウの差を解説。
Press release: The Nobel Prize in Physics 2024(外部)
ヒントン氏とホップフィールド氏が2024年ノーベル物理学賞を受賞した公式プレスリリース。
Geoffrey Hinton Predicts Google Will Overtake OpenAI(外部)
ヒントン氏のインタビュー内容を詳しく報じ、Googleが慎重になりすぎた経緯を説明。
Geoffrey Hinton wins Nobel Prize in Physics(外部)
トロント大学による公式発表。ヒントン氏の経歴と研究業績について詳述している。
【編集部後記】
AIの競争は技術力だけでなく、「いつ、どう世に出すか」という判断も勝敗を分けるのだと感じます。Googleが慎重すぎたために遅れを取り、今ようやく本来の力を発揮し始めている様子は、イノベーションのタイミングの難しさを物語っています。
皆さんは普段、GoogleのGeminiとOpenAIのChatGPT、どちらを使っていますか? それぞれの強みや使い心地の違いを、ぜひSNSで教えてください。技術の進化を、一緒に見守っていきましょう。






























