2026年1月、生成AIが大学入学共通テストで主要15科目中9科目の満点を獲得したというニュースを、本サイトで 「AIが満点を取る時代に、教育はどう向き合うべきか」 として取り上げました。あれからわずか3ヶ月。今度は東京大学・京都大学の二次試験で、AIが実際の合格者最高点をも上回ったという報告が届いています。
2026年1月、生成AIが大学入学共通テストで主要15科目中9科目の満点を獲得したというニュースを、本サイトで 「AIが満点を取る時代に、教育はどう向き合うべきか」 として取り上げました。あれからわずか3ヶ月。今度は東京大学・京都大学の二次試験で、AIが実際の合格者最高点をも上回ったという報告が届いています。
2026年4月27日、AIベンチャー LifePrompt Inc. は、ChatGPT が今年の東京大学・京都大学の入試で実際の最高得点者を上回ったと発表した。OpenAIの ChatGPT 5.2 Thinking を使用し、画像化した問題を解かせ、記述問題は河合塾の講師陣と株式会社KIESが採点した。
東京大学では文科系452点、理科系503点(いずれも550点満点)を記録し、合格者最高点(文科三類434点、理科三類453点)を超えた。理科三類では最高点を50点上回り、数学は満点。英語は90%、世界史などの論述は25%だった。
京都大学では法学部771点(最高点734点)、医学部1,176点(最高点1,098点)を獲得。2024年は ChatGPT 4 で不合格、2025年に o1 で初めて合格ラインを突破していた。LifePrompt代表の遠藤聡志氏と慶應義塾大学教授・人工知能学会会長の栗原聡氏がコメントした。
From:
Chatgpt Passes Japan Top Universities’ Entrance Exams With Highest Scores
【編集部解説】
このニュースは、Bernama-Kyodo配信の英文記事だけを読むと「ChatGPTが単独で東大・京大に首席合格した」という単純な構図に見えますが、実際にはより重層的な意味を持つ出来事です。
LifePrompt社が公開した一次情報(同社のnote記事およびPR TIMESプレスリリース)によれば、今回の検証で対象となった生成AIは ChatGPT 5.2 Thinking 単体ではなく、Gemini 3 Pro Preview、Claude 4.5 Opus を加えた主要3モデルでした。Geminiも東大理科三類で 496.54点を記録し、ChatGPTと並んで合格者最高点を超えています。Claudeは東大理科三類の合格者最高点には届かなかったものの、東大ではすべての科類で合格最低点を100点以上上回り、京大医学部でも合格最低点を上回るスコアを残しました。つまり今回の検証は「特定モデルの偉業」というより、「フロンティアモデル全体が、難関入試の合格レベルを安定して超えるフェーズに入った」と捉えるのが正確です。
注目すべきは、進化のスピードです。2024年に GPT-4 が全科類で不合格に終わり、2025年に o1 がようやく合格ラインを越えたばかりでした。それがわずか1年で、東大理系数学が120点満点という結果に到達しています。昨年の o1 が東大理系数学で38点だったことを踏まえると、知的タスクにおけるAIの伸び率は、もはや人間の学習曲線とは別次元の領域に入ったと言えるでしょう。
一方で、得意・不得意の分布は鮮明です。今回の検証で、AIは東大・京大の理系数学・文系数学のいずれにおいても複数モデルが満点を獲得し、ChatGPTは京大化学でも満点を記録しました。英語も全モデルが90%前後の安定した高得点を維持しています。一方で、世界史の論述では正答率25%にとどまるなど、論述構成力を問われる科目では大きな差が出ました。LifePrompt社の分析でも、論述の構成力、字数指定の遵守、構造式やグラフの画像認識、日本固有の慣習への対応といった部分に明確な弱点が残っています。「知識量」と「文脈理解」は別物だ、ということが改めて可視化された格好です。
慶應義塾大学・栗原聡教授のコメントは、本記事のなかで最も射程の長い指摘だと感じます。電卓と人間が計算速度を競わないのと同じく、AIと人間が暗記量や情報処理量で競うこと自体に意味はない、という視点です。これは入試制度のみならず、企業の採用試験、資格試験、さらには評価指標そのものを問い直す問題提起でもあります。
教育現場への影響は、すでに不可逆的なフェーズに入っています。AIが首席を取れる試験を、いまも人間に課し続ける合理性はあるのか。日本の大学入試は「公平な選抜装置」として高い社会的信頼を保ってきましたが、AIが容易に最高点を超える領域では、評価軸を「再現できるアウトプット」から「人間にしか生み出せない価値」へ移していく必要があります。
ビジネス面のインパクトも見逃せません。LifePromptは2026年4月、組織にAIを「同僚」として迎え入れる「AxMates」というAI社員プラットフォームを正式ローンチしています。今回の検証は同社のAX(AI Transformation)思想を象徴するデモンストレーションでもあり、「10〜20年後の業務を見据えてAIを導入すべき」という遠藤聡志代表のコメントは、その文脈で読む必要があります。
潜在的なリスクも整理しておきます。第一に、AI評価への過信です。記述採点は河合塾の講師陣と、河合塾グループでコンテンツ制作を担う株式会社KIESが協力して実施しましたが、AIの解答を人間が採点するというプロセス自体、評価バイアスの可能性をはらみます。第二に、「AIが解ける問題=価値ある問題」と短絡することです。芸術、ケア、倫理判断、未踏領域への問いの設定など、点数化しにくい知性こそ、人間が引き受けるべき領域として残ります。第三に、教育格差の問題です。最先端AIへのアクセス権は、すでに学習機会の格差を生み始めています。
なお、京都大学医学部の合格者最高点1,098点という比較値は、2026年度の正式データが現時点で未公表のため、LifePromptの一次情報では2025年度の合格者最高点(1,105.87点)が比較対象として示されています。本記事は元記事(Bernama-Kyodo)の数値表記を尊重しつつ、京大の2026年度首席との直接比較ではない点にご留意ください。
規制と制度設計の観点では、生成AIの能力評価をどう公的に位置付けるかという課題が浮上します。EUのAI Act、米国の大統領令、日本のAI事業者ガイドラインなど、各国の枠組みは存在しますが、いずれも「AIが人間の最高点を超えた世界」を前提にした制度設計にはなっていません。評価制度・著作権・教育・労働のいずれの領域でも、フレームワークの再設計が求められる段階に来ています。
長期的視点では、栗原教授が示した「人間は新しい価値を生み出す点で優位を保つ」という命題が、これからの人類の主戦場を示しているように思えます。AIに知識量で勝つ努力ではなく、AIには問いを立てられない領域に踏み込む力——つまり、好奇心、文脈構築、他者への想像力——を磨く方向へ、社会全体の重心を移していく時期に入ったのではないでしょうか。
【用語解説】
ChatGPT 5.2 Thinking
OpenAIが提供する生成AI「ChatGPT」の上位モデル。「Thinking」と呼ばれる思考型モデル系列に属し、回答前に内部で複数ステップの推論を行うことで、数学・科学・論理的処理が必要なタスクにおいて高い精度を発揮する設計になっている。
Gemini 3 Pro Preview
Googleが開発する生成AI「Gemini」シリーズの最新世代。今回のLifePrompt検証では、ChatGPT 5.2 Thinkingと並んで東大理科三類の合格者最高点を上回るスコアを記録した。
Claude 4.5 Opus
Anthropicが開発する生成AI「Claude」シリーズの上位モデル。今回の検証では東大理科三類の合格者最高点には届かなかったが、東大の全科類で合格最低点を100点以上上回り、社会科目の論述では3モデル中で最も高い評価を得た。
フロンティアモデル
業界最先端の能力を持つ生成AIモデルの総称である。ChatGPT、Gemini、Claudeなどが該当し、能力の急速な向上が続いているため、各国で安全性評価の枠組み整備が進んでいる。
AX(AI Transformation)
人とAIが分け隔てなく協働する状態へと組織や業務を変革する概念。DX(デジタルトランスフォーメーション)の次の段階と位置付けられ、LifePromptが提唱している考え方である。
理科三類・文科三類
東京大学の前期課程における科類区分。理科三類は主に医学部医学科への進学コースで、東大入試で最も合格最低点が高い最難関区分として知られる。文科三類は主に文学部・教育学部への進学を想定した区分。
二次試験前期日程
国公立大学の個別試験の主要日程。今回検証された東大・京大の入試問題は、いずれも2026年2月に実施された二次試験前期日程のものである。
大学入学共通テスト
日本の大学入試で多くの大学が共通して課す全国統一試験。記事によれば、ChatGPTはこの共通テストにも解答し、二次試験との合計得点が集計された。
【参考リンク】
LifePrompt株式会社 公式サイト(外部)
東京・新宿のAIスタートアップ。今回の東大・京大入試検証を実施した一次情報発信元で、AI社員プラットフォームAxMatesを展開している企業。
OpenAI 公式サイト(外部)
ChatGPTを開発・提供する米国のAI研究企業。最新モデル情報、研究成果、API、企業向け製品の情報が公開されている。
Google Gemini 公式サイト(外部)
Googleが提供する生成AIアシスタント。今回の検証ではChatGPT 5.2と並んで東大理科三類の合格者最高点を超えるスコアを記録した。
Anthropic 公式サイト(外部)
Claudeを開発する米国のAIスタートアップ。安全性研究を重視した設計思想で知られ、企業での利用が拡大している。
河合塾 公式サイト(外部)
今回の検証で東大・京大の記述問題採点を担当した日本の大手予備校。入試研究や模試運営で長い歴史を持つ。
東京大学 公式サイト(外部)
今回検証対象となった日本最難関大学の一つ。入試情報や合格者最高点などの公表データが公式サイトで確認できる。
京都大学 公式サイト(外部)
今回検証対象となったもう一つの最難関大学。学部入試問題や選抜要項、教育方針が公式サイトで確認できる。
慶應義塾大学 公式サイト(外部)
コメントを寄せた栗原聡教授(人工知能学会会長)が所属する大学。AI研究や国際教育で知られる総合大学。
人工知能学会 公式サイト(外部)
栗原聡氏が会長を務める日本のAI関連学術団体。1986年設立で年次研究発表会や学会誌を運営している。
【参考記事】
【首席超え・満点続出】2026年度 東大・京大の入試問題をAIに解かせてみた(外部)
LifePromptが公開した一次情報レポート。3モデルのスコアや科目別分析、河合塾講師の詳細コメントを掲載した本件の最重要資料である。
最新AIが東大・京大の合格者最高点を突破、満点科目もあり(PR TIMES)(外部)
LifePromptの公式プレスリリース。検証概要、AIの主な4つの弱点、株式会社KIESの採点協力について明記している。
ChatGPT、東大・京大で「首席合格」 数学満点の衝撃、2年前は全滅(BigGo)(外部)
共同通信ベースの内容を整理した日本語報道。理三で最高点を50点上回ったこと、数学満点、論述の課題などに言及している。
チャットGPT 東大と京大首席合格(Yahoo!ニュース)(外部)
共同通信の日本語原稿に基づく報道。理三最高点を50点上回ったこと、「チャッピー」の愛称にも言及している。
【関連記事】
大阪電気通信大学、理系科目に初のAI講師—「人間+AI」が物理・数学を変える(2026年4月29日)
AIが教育現場に「教える側」として入る事例。本記事の「人間とAIの役割分担」議論と地続きの内容。
北京大学AIが証明した「数学研究の自動化」—Lean 4で自ら検証、人間の判断ゼロ(2026年4月15日)
AIが高度な数学領域でブレイクスルーを示した事例。本記事の「東大理系数学満点」と並べて読める内容。
中国AI企業が大学入試でサービス制限|Qwen・Doubao・Kimiが画像認識機能を一時停止した背景と教育業界への影響(2025年6月11日)
入試×生成AIをめぐる別アプローチ(中国の高考対応)。比較材料として有用な内容。
ChatGPT利用で認知能力低下が判明|ペンシルベニア大学・MIT研究で「認知的負債」を実証(2025年6月)
AIの能力向上の「裏側」で起きる、人間の学習能力への影響を扱った記事。今回の編集部解説の長期的視点と呼応。
【取材】人間以外の知性が生まれた世界で「真の人間であること」を証明する試み—東京大学 松尾教授×Tools For Humanity 日本代表 牧野氏(2026年4月27日)
「AIが人間を超える時代に、人間は何を残すか」という今回の編集部後記の問いと完全に同期するテーマの取材記事。
【編集部後記】
AIが東大・京大で首席を超えたという事実は、読者のみなさんにとって「すごいニュース」で終わるのか、それとも自分の働き方や学び方を見直すきっかけになるのか。受け止め方は人それぞれだと思います。
もし身近にお子さんや学び直しを考えている方がいれば、「何を覚えるか」より「どんな問いを立てるか」を一緒に話してみるのも面白いかもしれません。
みなさんは、AIと並走する10年後、自分のどんな力を残しておきたいですか。よろしければ、感じたことをぜひ聞かせてください。











