2023年3月14日、OpenAIが大規模言語モデル『GPT-4』を発表し、ChatGPT Plusなどで提供を開始した。テキストのみを処理していた前世代から、画像入力に対応するマルチモーダルモデルとして発表された。模擬司法試験(バー試験)で上位10%のスコアを記録し、推論能力の質的変容を証明した。
Microsoftリサーチは154ページの論文でGPT-4を「AGI(汎用人工知能)の萌芽」と評し、AI史における転換点として記録された。単なる性能向上ではなく、AIが「応答する道具」から「考える存在」へと変貌を遂げた日として、その意義を技術史の視点から読み解く。
「これ、もしかして別物じゃないか」
その夜、パソコンの画面を前にそう呟いた人が、世界中に何万人もいたはずです。
2023年3月14日の深夜。いつものように仕事の合間にChatGPTを開こうとしたところ、タイムラインに見慣れないニュースが流れてきました。「OpenAI、GPT-4を公開」。前のバージョンが出たのはほんの数カ月前のこと。「またアップデートか」と思いながらも、なんとなくリンクを踏んだ方も多かったのではないでしょうか。
ところが、使ってみた瞬間、何かが違うと気づきます。
返ってくる言葉が、どこか「考えている」ように感じられる。複雑な質問にも、的外れな答えではなく、文脈を踏まえた返答が返ってくる。前のバージョンでは詰まっていたコードのデバッグが、あっさり解決する。「AIってこういうものだよね」と思っていた壁が、静かに、しかし確実に崩れていくような感覚でした。
あの夜の「違和感」は、錯覚ではありませんでした。
GPT-4は、画像入力に対応する“目を持ちうる”モデルとして発表されました。そして単に機能が増えただけではなく、推論の深さそのものが前世代とは質的に異なっていました。のちにMicrosoftリサーチの研究者たちは、GPT-4との対話を分析した154ページの論文に、こんなタイトルをつけます。「AGI(汎用人工知能)の萌芽」と。
AIが「道具」から「考えるもの」へと変わりはじめた日。それが、2023年3月14日でした。
マルチモーダルという革命―AIが「目」を持った日
GPT-4が前世代と決定的に異なっていたのは、「テキストを超えた」という一点です。
それまでのChatGPT(GPT-3.5)は、あくまでもテキストを受け取り、テキストを返す存在でした。どれだけ流暢で知的な返答をしていても、AIが認識できる世界は「文字」に限られていました。視覚を持たないまま、膨大な知識を語り続けていたのです。
GPT-4は、その壁を越えました。画像を入力として受け取り、その内容を理解した上で応答できるマルチモーダルモデルでした。
公開当日のデベロッパー向けライブ配信で、OpenAIの共同創業者グレッグ・ブロックマンはこんなデモを披露しました。紙に手書きしたWebサイトの設計図を撮影し、そのままGPT-4に入力する。すると、実際に動作するHTMLコードが生成される。会場が静まり返ったあの瞬間は、多くの視聴者の記憶に刻まれています。「見たものを理解し、動かせるものを作る」という一連の流れを、AIが初めて担った場面でした。
もう一つ、印象的なエピソードがあります。視覚障害のある人々の日常を支援する組織「Be My Eyes」は、GPT-4の画像認識機能を活用した「バーチャルボランティア」機能を開発しました。スマートフォンのカメラが捉えた映像をGPT-4が解析し、「冷蔵庫の中に何があるか」「この薬の説明書には何と書かれているか」を音声で伝えるという仕組みです。技術の進化が、特定の誰かの「見えない世界」を少し広げた瞬間でもありました。
マルチモーダルとは、単なる「機能追加」ではありません。AIと人間が共有できる「文脈」の次元が、テキストから現実世界へと広がった――そういう変化でした。
数字が語る、質的変容
「GPT-4は前のバージョンより賢い」。そう聞いても、ピンとこなかった方もいたかもしれません。ところが、OpenAIが公開したベンチマーク結果は、単なる「改良」ではないことを明確に示していました。
最も象徴的なのが、模擬司法試験(バー試験)のスコアです。GPT-3.5の成績は受験者全体の下位10%相当でしたが、GPT-4は上位10%に達しました。同じ試験を受けて、成績の分布が真逆になったのです。SAT(米国の大学進学適性試験)では1,600点満点中1,300点超を記録し、AP試験(大学レベルの科目試験)では心理学・統計学・微積分・歴史などで高得点を連発しました。
言語の壁も越えていました。多言語理解の評価指標において、GPT-4は26言語中24言語で、GPT-3.5の英語性能を上回りました。英語で最も優秀だった前世代を、GPT-4は多くの言語でさらに超えたのです。
処理できるテキストの長さも大幅に拡張されました。GPT-3.5が扱えたのが約7ページ分に相当するコンテキストだったのに対し、GPT-4の標準版は約50ページ分、拡張版ではさらに大きく広がりました。長い文書を丸ごと読み込み、文脈を保ちながら対話できるようになったことは、実務での活用可能性を根本から変えました。
これらの数字が示しているのは、「同じ種類の能力が少し伸びた」という話ではありません。AIが人間の試験制度を通過し始めたという事実は、私たちが「知性」について問い直す契機でもありました。
「AGIの萌芽」――Microsoftが見たもの
GPT-4公開から8日後の2023年3月22日、Microsoftリサーチから一本の論文が発表されました。タイトルは「Sparks of Artificial General Intelligence: Early experiments with GPT-4(汎用人工知能の萌芽:GPT-4を用いた初期実験)」。著者は14名で、論文は一般に154ページ級の大部として知られています。
論文の中心的な主張は明快です。GPT-4は数学・コーディング・医療・法律・心理学など、人間の専門的な知識が求められる幅広い領域において、人間水準に匹敵するパフォーマンスを示した。そしてその「汎用性」の広さと「深さ」を合わせ考えると、GPT-4は「早期かつ不完全なAGIシステムとして捉えることができる」と論じたのです。
「Sparks(火花)」というタイトルの言葉選びには、慎重な意図が込められていました。「AGIが完成した」とは言わない。しかし「その火花が散った」という表現で、研究者たちは自分たちが目撃したものを正直に記録しようとしました。
Microsoftリサーチにとって、この論文は特別な意味を持っていました。GPT-4がまだ開発中だった段階から、Microsoft Researchは早期版を用いた検証を進めており、OpenAIの公式発表を待って初めて公表できた成果だったからです。つまりこの論文は、AI開発の最前線にいた人たちが「これは何かが違う」と感じ、それを記録に残すために書いたものでした。
AGIをめぐる議論は今なお続いており、GPT-4をAGIと呼ぶことへの異論も当然あります。大切なのは、GPT-4がAGIかどうかという結論ではなく、世界の研究者たちがその可能性を真剣に議論せざるを得なくなったという事実そのものが持つ重さです。それは、人類がAIに対して向き合う姿勢が変わった瞬間でもありました。
賞賛と警鐘――世界が受け取ったもの
GPT-4の公開から数週間、世界は二つの声で揺れていました。
一方には、興奮がありました。マイクロソフトは米国時間3月16日(日本語版掲載は3月17日)にMicrosoft 365 Copilotを発表しました。語学学習アプリのDuolingoはGPT-4を活用した新サービスを開始し、オンライン教育プラットフォームのKhan AcademyはGPT-4を活用した個別指導機能の開発を宣言しました。技術は瞬く間に、人々の日常に組み込まれようとしていました。
もう一方には、警戒の声がありました。GPT-4の公開から8日後、イーロン・マスク、スティーブ・ウォズニアック、AI研究者のヨシュア・ベンジオらが連名で公開書簡を発表します。「GPT-4を超える能力を持つAIシステムの開発を、少なくとも6カ月間停止すべきだ」という内容でした。公開直後の報道では1,000人超、その後署名数は2万を超えました。一方、OpenAIのサム・アルトマンはこの書簡への署名を断り、開発の継続を選びました。
この対立構図は、技術史において繰り返されてきたパターンでもあります。印刷機が生まれたとき、核エネルギーが発見されたとき、インターネットが普及したとき。人類は常に、新しい力の到来に対して歓迎と恐れの両方で応えてきました。GPT-4をめぐる論争は、その最新の章に過ぎません。
社会的な影響の推計も、この時期に相次いで発表されました。OpenAIが関与した調査では、米国の職種の80%において「GPTによって少なくとも10%の業務に影響が生じる可能性がある」と分析されました。「影響」は「消滅」ではありません。しかし「仕事の形が変わる」という予感は、多くの人の心に静かに根を下ろしていきました。
2026年、あの日を振り返る―GPT-4が切り開いたもの
2025年4月30日、GPT-4はChatGPTのプラットフォームから静かに引退しました。後継モデルに役割を譲り、その名はAI史のページに刻まれることになったのです。
ただし、これは「終わり」ではなく「起点の確認」です。
GPT-4から始まった進化の文脈は、GPT-4o、そしてGPT-5へと連なっています。テキストと画像だけだったマルチモーダルの領域は、音声・動画・コードの実行へと広がり続けています。「AIに何かを頼む」という行為が、今や日常の一部になっている人も少なくないでしょう。
2023年3月14日に何が起きたのかを、今の言葉で整理するとこうなります。あの日まで、AIは「問いに答える道具」でした。精度は高くなっても、それはあくまで応答する機械でした。GPT-4は、その前提を変えました。文脈を読み、推論し、画像を理解し、専門的な問題に取り組む――そのような振る舞いを見せたとき、私たちは初めてAIを「考えている何か」として認識し始めたのです。
GPT-4の意義は、そこにあると感じます。AIが進化したのではなく、AIとともに人間の可能性の定義が書き換えられ始めた。あの夜、画面を前に「これ、別物じゃないか」と呟いた感覚は、その書き換えの始まりを、身体で感じ取った瞬間だったのかもしれません。
【用語解説】
LLM(Large Language Model/大規模言語モデル)
大量のテキストデータで事前学習された、テキストの生成・理解・翻訳・要約などを行うAIモデルの総称だ。GPT-4はその代表的な存在であり、Transformer(トランスフォーマー)と呼ばれるアーキテクチャに基づいている。
マルチモーダルAI
テキスト・画像・音声・動画など、複数の種類の入力を処理できるAIを指す。GPT-4はテキストと画像の入力に対応した初のGPTシリーズモデルであり、その後の「GPT-4o」では音声や動画も扱えるようになった。
AGI(Artificial General Intelligence/汎用人工知能)
特定のタスクに特化した「特化型AI」とは異なり、人間と同等以上の知的能力を幅広い領域で発揮できるAIの概念だ。現時点では定義自体が研究者間で議論の的となっており、GPT-4がAGIかどうかについても見解が分かれる。
RLHF(Reinforcement Learning from Human Feedback/人間のフィードバックによる強化学習)
AIの出力に対して人間が評価を与え、その評価をもとにモデルを改善していく学習手法だ。GPT-4は公開前に6カ月以上の評価・テスト・改善を経て、安全性・誠実性・指示への追従性が向上している。
コンテキスト長
AIが一度の対話の中で参照・処理できるテキストの量をトークンという単位で表したものだ。コンテキスト長が長いほど、長い文書や長い会話を記憶したまま応答できる。GPT-4の標準版は8,192トークンで、拡張版ではさらに長いコンテキストを扱えた。
information
【参考リンク】
OpenAI公式:GPT-4 Research(2023年3月14日) (外部)
OpenAIによるGPT-4の公式発表ページ。技術的な概要、ベンチマーク結果、安全性への取り組み、APIの提供条件を網羅した一次情報。
Sparks of Artificial General Intelligence: Early experiments with GPT-4(Microsoftリサーチ, 2023年3月22日) (外部)
GPT-4を「AGIの萌芽」と論じたMicrosoftリサーチによる154ページの学術論文。数学・法律・医療など多領域にわたる実験結果を収録している。
OpenAI releases GPT-4, a multimodal AI that it claims is state-of-the-art(TechCrunch, 2023年3月14日)(外部)
リリース当日にTechCrunchが報じた速報記事。Bing ChatがGPT-4で動作していたことへの言及など、公開直後の業界反応を記録している。
GPT-4 Release: Briefing on Model Improvements and Limitations(Morrison Foerster, 2023年3月15日)(外部)
米国大手法律事務所による技術・法的リスク分析レポート。GPT-4の能力と限界を中立的な視点で整理しており、ビジネス活用を検討する上での参考になる。
【編集後記】
あの夜、私もまったく同じように、「なんとなく」リンクを踏んだ一人でした。
正直に言えば、最初は「またOpenAIが何か出したか」くらいの気持ちで画面を開きました。ところが使い始めて30分も経たないうちに、手が止まっていました。返ってくる言葉が、前のバージョンとは明らかに違う。何かが、変わっている。
あの感覚をうまく言語化できないまましばらく経ちましたが、今ならこう言えます。それまでのAIは「答える機械」だったのに、GPT-4は初めて「一緒に考えている何か」のように感じられた、ということです。
もちろんそれは、まだ完全ではありません。GPT-4も間違えるし、幻覚を起こすし、万能でもありません。しかしあの日から、私たちはAIに「賢さ」だけでなく「信頼できるか」を問い始めました。その問いが生まれたこと自体が、AI史における一つの転換点だったと思います。
あなたにとって、「AIが変わった」と感じた瞬間はいつでしたか? もしよければ、その記憶を思い返してみてください。きっとそれは、あなた自身がテクノロジーとの関係を更新した瞬間でもあったはずです。







































