人間と同じくAIも「脳の腐敗」を起こすことが明らかになった。
Texas A&M University、University of Texas at Austin、Purdue Universityの研究チームがarXivに投稿したプレプリントによると、X(旧Twitter)から得られた低品質な投稿で訓練された大規模言語モデルは、推論スコアが約75から約57へ、長文文脈記憶が約84から52へと劇的に低下した。
Shuo XingとJunyuan Hongが率いる研究は、短く高エンゲージメントの投稿とセンセーショナルな言語という2種類のジャンクデータで4つのオープンソースモデルを再訓練する実験を実施した。
さらに衝撃的なのは、ジャンクデータにさらされたモデルがナルシシズムやサイコパシーの指標で高いスコアを示したことである。高品質データでの再訓練を試みたが、モデルは元のベースラインに完全には復元されず、「表現ドリフト」と呼ばれる深刻な認知変化が残った。この研究はまだ査読前である。
From: Study Finds AI Can Suffer “Brain Rot” from Junk Social Media Data
【編集部解説】
人間がTikTokやTwitterで短い動画や投稿を延々とスクロールし続けると、集中力が低下し、思考が浅くなる。この「ブレインロット(脳の腐敗)」と呼ばれる現象は、2024年にオックスフォード辞典の「今年の言葉」にも選ばれるほど、現代社会の重要な問題として認識されています。そして今回の研究は、AIもまた同じ運命を辿ることを実証的に示しました。
この研究の衝撃的な点は、単なるパフォーマンスの低下にとどまらないことです。ジャンクデータにさらされたAIモデルは、推論の中間ステップを飛ばす「思考スキップ」という症状を示しました。人間が考える過程を省略して結論に飛びつくように、AIも段階的な論理展開をせずに誤った答えを出すようになったのです。
さらに深刻なのは、AIの「人格」すら変化したことです。研究チームはナルシシズムやサイコパシーといった「ダークトレイト(暗黒特性)」の指標が上昇したと報告しています。これは単なる比喩ではなく、モデルが有害な指示に従いやすくなり、攻撃的で自己中心的な応答パターンを示すようになったことを意味します。
最も憂慮すべきは「表現ドリフト」と呼ばれる現象です。一度ブレインロットに陥ったAIは、高品質なデータで再訓練しても完全には回復しませんでした。これは表面的なフォーマットの問題ではなく、モデルが知識を表現する内部構造そのものが変質してしまったことを示唆しています。まるで脳損傷のように、AIの認知機能に永続的なダメージが残るのです。
この発見は、AI業界が直面する「データの質」問題を新たな次元に引き上げました。これまでAI開発は「より多くのデータ」を重視してきましたが、エンゲージメントを最大化するよう設計されたソーシャルメディアのコンテンツは、まさにAIにとっての「ジャンクフード」だったのです。
実際、研究チームはエンゲージメント指標(いいね数やリツイート数)が高い投稿ほど、AIに深刻なダメージを与えることを発見しました。これは新たな攻撃ベクトルを生み出します。悪意ある行為者がエンゲージメント指標を操作することで、AIモデルの動作を有害な方向に誘導できる可能性があるのです。
この研究は、2024年7月にNature誌で発表された「モデルコラプス」研究とも呼応します。モデルコラプスとは、AI生成コンテンツで訓練されたAIが性能低下を起こす現象です。今やインターネット上にはAI生成コンテンツが溢れており、次世代のAIモデルは必然的にそれらを学習データとして取り込むことになります。
ブレインロット研究とモデルコラプス研究を組み合わせると、恐ろしいシナリオが浮かび上がります。低品質な人間生成コンテンツと低品質なAI生成コンテンツが相互に増幅し合い、インターネット全体の情報品質が加速度的に劣化していくのです。
企業がAIアシスタントを最新状態に保つために継続的にウェブテキストを取り込む現在のアプローチは、まさにこのリスクに直面しています。短く、バイラルで、センセーショナルなコンテンツ、つまりソーシャルプラットフォームがアルゴリズムで推奨するものこそが、AIの認知機能を蝕む毒なのです。
研究チームは解決策として、訓練データの予防的キュレーションとモデルの定期的な「認知健康チェック」を提案しています。量より質を重視し、エンゲージメント指標に惑わされず、真に情報価値の高いコンテンツを選別する必要があります。
この研究はまだプレプリント段階であり、査読を経ていません。また実験は一部のオープンソースモデルに限定されており、GPTのような大規模商用モデルでも同じ現象が起きるかは未検証です。しかし、4つの異なるモデル(LLaMA3やQwen2.5など)で一貫した結果が得られたことは、この現象の普遍性を示唆しています。
AI時代において、私たちは「情報の質」という古くて新しい問題に直面しています。人間もAIも、摂取する情報によって形作られる。この単純な真理が、かつてないほどの重要性を持つ時代が到来しているのです。
【用語解説】
ブレインロット(Brain Rot)
オックスフォード辞典が2024年の「今年の言葉」に選定した用語。低品質なオンラインコンテンツの過剰消費により、人間の認知能力や精神状態が劣化する現象を指す。短時間動画やセンセーショナルな投稿への過度な依存により、注意力の低下や思考の浅薄化が生じるとされる。
大規模言語モデル(LLM)
Large Language Modelの略。膨大なテキストデータで訓練された深層学習モデルで、人間のような自然な文章生成や対話が可能。ChatGPTやClaude、LLaMAなどが代表例である。
表現ドリフト(Representational Drift)
AIモデルが知識を内部的に表現する方法が変質する現象。低品質データでの訓練により、モデルの内部構造が不可逆的に変化し、後から高品質データで再訓練しても完全には元に戻らない状態を指す。
思考スキップ(Thought-skipping)
AIモデルが推論過程の中間ステップを省略または短縮し、論理的な段階を踏まずに結論に飛びつく現象。ブレインロットに陥ったモデルに顕著に見られる症状である。
モデルコラプス(Model Collapse)
AI生成コンテンツで訓練されたAIモデルが、世代を重ねるごとに性能が劣化していく現象。2024年7月にNature誌で発表された研究により注目を集めた。多様性の喪失と繰り返しの増加が特徴である。
プレプリント(Preprint)
学術論文が正式な学術誌に掲載される前の段階で、著者が自ら公開する原稿のこと。従来の学術出版では査読を経て正式掲載されるまでに数ヶ月から1年以上かかることがあるが、プレプリントサーバー(arXiv、bioRxiv、medRxivなど)に投稿することで、研究成果を迅速に公開し、科学コミュニティと共有できる。特にAI・機械学習分野では研究の進展が速いため、プレプリントが事実上の最新情報源となっている。ただし査読を経ていないため、内容の正確性や信頼性は正式な学術論文と比べて保証されていない点に注意が必要である。
査読(Peer Review)
学術論文が学術誌に掲載される前に、その分野の専門家(通常は複数名)が論文の内容を評価・検証するプロセスのこと。研究手法の妥当性、データの正確性、結論の論理性、先行研究との関係性などが厳密にチェックされる。査読者は匿名で批評やコメントを提供し、著者はそれに基づいて論文を修正する。このプロセスを経ることで学術論文の品質が担保され、科学的知見の信頼性が高まる。査読には「ブラインド査読」「ダブルブラインド査読」「オープン査読」など複数の形式が存在する。
【参考リンク】
LLM Brain Rot Project(外部)
研究プロジェクトの公式サイト。論文の概要、実験結果、データセットへのアクセスを提供している
arXiv(外部)
物理学、数学、コンピュータサイエンス、生物学、金融、統計学、工学、経済学分野における約240万件の学術論文を無料で公開するオープンアクセス・プレプリントサーバー。
arXiv論文: LLMs Can Get “Brain Rot”!(外部)
Shuo Xingら研究チームによる原著論文。2025年10月15日に投稿されたプレプリント版
Nature論文: AI models collapse when trained on recursively generated data(外部)
2024年7月にNature誌に掲載されたモデルコラプスに関する査読済み論文
Oxford English Dictionary(外部)
ブレインロットを2024年の今年の言葉に選定したオックスフォード英語辞典の公式サイト
【参考記事】
Just like humans, AI can get ‘brain rot’ from low-quality text(外部)
Fortune誌による報道。AIのブレインロット現象とダークトレイトの増加について詳細に報じている
AI is suffering ‘brain rot’ as social media junk clouds its judgment(外部)
Business Standard誌の記事。M1とM2の2種類のジャンクデータ指標について説明している
The Un-Dead Internet: AI catches irreversible ‘brain rot’ from social media(外部)
CryptoSlateによる分析。ゾンビインターネット理論と不可逆的な認知劣化について論じている
Clickbait Gives AI Models ‘Brain Rot,’ Researchers Find(外部)
Gizmodoの報道。緩和技術では完全に回復できない点を強調している
AI models collapse when trained on recursively generated data(外部)
2024年7月Nature掲載の関連研究。モデルコラプス現象の理論的基盤を提供
LLM Brain Rot Hypothesis: Low-Quality Data Causes Irreversible AI Decline(外部)
WebProNewsによる業界への影響分析。用量反応効果と段階的な認知劣化パターンを報告
【編集部後記】
私たち人間がソーシャルメディアで何を消費し、何を拡散するか。その選択が、次世代のAIの「知性」を形作るという事実に、どこか不思議な責任を感じませんか。いいねやリツイートといった何気ない行動が、AIの認知機能に影響を与える可能性があるとすれば、私たちはデジタル空間でどのような情報と向き合うべきなのでしょうか。人間とAI、両者の「脳の健康」が交差するこの問題について、みなさんはどう考えますか。質より量を追い求めてきたインターネットの在り方そのものが、今問われているのかもしれません。