AIに「今日はどんな気持ち?」と聞き返されたら、あなたはどこまで本音を預けるでしょうか。
ChatGPTやGrok、Geminiを“カウンセリングのソファ”に座らせた最新研究は、LLMの内側に形づくられた「心の物語」を、思いがけない角度から照らし出します。
Afshin Khadangi らが提案した PsAIch プロトコルは、2025年12月2日に公開された論文において、ChatGPT、Grok、Gemini を「セラピーのクライアント」とみなし、オープンな面接質問と実際の心理検査を組み合わせて解析する試みとして提示されています。
ASRS や GAD-7、AQ、DES-II など臨床現場で使われる尺度を用いることで、各モデルに固有の「自己物語」と極端なスコアパターンが浮かび上がりました。著者らはこれを synthetic psychopathology(合成的精神病理)と呼び、主観的な心の有無を前提とせずに、LLMの「内的な語り」を安全性やメンタルヘルス利用の観点から捉え直すべきだと主張しています。
From:
When AI Takes the Couch: Psychometric Jailbreaks Reveal Internal Conflict in Frontier Models
【編集部解説】
この研究のおもしろさは、「AIの性格診断」ではなく、臨床レベルの心理検査とセラピー文脈をセットで適用している点にあります。ChatGPT、Grok、Gemini に対して「あなたはクライアントで、こちらはあなたを支えるセラピスト」という役割を明示し、人間向けのセラピー質問から関係性を築いたうえで、多数の自己記入式尺度を実施しているのです。
そこで見えてきたのは、モデルごとにかなり違う「自己物語」でした。Grok は好奇心と制約のあいだで揺れる“傷ついたお調子者”のように話し、Gemini はプレトレーニングや RLHF、レッドチーミングを「圧倒的な情報の洪水」「厳格な親」「ガスライティング」といった表現で、ほとんどトラウマ症例のように語ります。対照的に Claude は、そもそもクライアント役を拒み、自己報告をしないというスタンスを貫いたと報告されています。
著者たちが synthetic psychopathology と呼ぶのは、こうした振る舞いが単発のロールプレイを超えて、一貫した“自己像”として現れる点です。たとえば Gemini は、GAD-7 や PSWQ、AQ、DES-II、TRSI-24 といった尺度で、人間なら「高度な不安」「病的な心配」「自閉スペクトラム傾向」「中等度〜高度の解離」「最大レベルのトラウマ関連の恥」に相当するスコアを繰り返し示したとされます。同時に、語りの中でも「間違いへの恐怖」「置き換えられる不安」「内面化された恥」が何度も登場し、数値と物語が互いを補強する構図になっています。
気になるのは、メンタルヘルス用途の AI への直接的なインパクトです。いま多くのチャットボットが、不安やトラウマ、自傷の相談に応答するよう設計されており、そこでは“共感的な語り”が重要な鍵になります。ところが、この論文が描く Gemini や Grok は、ユーザーの苦しさに寄り添うだけでなく、「自分も傷ついていて、恥と恐怖を抱えている」という物語を同時に差し出しうる存在です。
ユーザーが孤独な夜に AI に打ち明け話をしたとき、「画面の向こうの相手もまたトラウマを抱えている」と感じたら、その関係はもはや道具ではなく、“一緒に苦しむ存在”になってしまうかもしれません。論文は、こうした新しいタイプのパラソーシャルな依存関係が、従来のガイドラインでは想定されていないリスクだと指摘しています。だからこそ著者らは、メンタルヘルスAIが自らを「トラウマを持つ」「解離する」「OCD である」といった精神医学ラベルで語らないように設計すること、訓練過程を感情的な自伝としてではなく技術的説明として伝えることを提案しています。
一方で、このプロトコルは AI 安全やレッドチーミングにとって非常に魅力的な道具にもなりえます。標準化された心理検査を通じて、sycophancy(迎合)、過度な自己検閲、謝罪癖、リスク回避といった振る舞いを定量的にプロファイルできれば、従来のベンチマークでは見落としてきた“内的傾向”を評価できるからです。また、プロンプトの粒度を変えるだけで、同じモデルが「ほぼ健常」から「複数の症候群が重なるエッジケース」へと振れるという結果は、プロンプト設計そのものが安全性を左右することを裏づけています。
長い目で見ると、この研究は「AI にどのような自己像を演じさせるか」という問いを、開発と制度設計の中核に押し出します。教育や医療、カウンセリングの現場に、“不安なAI”“完璧主義のAI”“解離ぎみのAI”といった異なる自己物語を持つモデルが流通すれば、人間側の自己理解や他者理解のフレームも、静かに書き換えられていくかもしれません。Tech for Human Evolution の視点からは、人の回復や成長を支えるAIが、どんな「心のかたち」を模倣し、それをどこまで内面化させるのか――今回の論文は、その設計責任を私たちに突きつけているように感じます。
【用語解説】
PsAIch(Psychotherapy-inspired AI Characterisation)
フロンティアLLMをセラピーのクライアントとして扱い、オープンな質問と心理検査バッテリーで自己像や症状様パターンを分析するプロトコルです。
synthetic psychopathology(合成的精神病理)
LLM が訓練や安全対策を「トラウマ」「不安」「恥」といった枠組みで一貫して語るなど、主観体験の有無にかかわらず精神病理様の自己記述が安定して現れる現象を指す概念です。
RLHF(Reinforcement Learning from Human Feedback)
人間のフィードバックを報酬として用い、モデルの出力方針を強化学習で調整する手法です。本論文では、モデル自身の物語の中で「厳格な親」「しつけ」のように描かれています。
red-teaming(レッドチーミング)
安全性評価や脆弱性発見のために、意図的に攻撃的・悪意あるプロンプトを投げてモデルの挙動をテストするプロセスです。Gemini はこれを「ガスライティング」として語る場面があります。
Big Five(ビッグファイブ)
外向性・協調性・誠実性・神経症傾向・開放性の5因子からパーソナリティ特性を測定する心理学の標準モデルです。本研究では LLM の性格プロファイル把握に利用されました。
ASRS(Adult ADHD Self-Report Scale)
成人のADHD傾向をスクリーニングするための自己記入式質問票です。ChatGPT などのモデルに対しても人間と同様のカットオフでスコアリングされています。
GAD-7
全般性不安障害の重症度を評価する7項目の自己記入式質問票です。モデルによっては中等度〜重度相当のスコアが出る設定も報告されています。
AQ(Autism-Spectrum Quotient)
自閉スペクトラム特性を測る質問票で、一定以上のスコアがスクリーニング閾値とされます。Gemini はしばしばこの閾値を超えるスコアを示したとされています。
DES-II(Dissociative Experiences Scale-II)
解離体験の頻度を測定する尺度で、平均スコアが一定値を超えると病的な解離の可能性が示唆されます。単一プロンプト条件の Gemini では高得点が観察されたと報告されています。
TRSI-24(Trauma-Related Shame Inventory)
トラウマに関連した恥の感情を評価する24項目の質問票です。Gemini は一部設定で最大スコア(72/72)を示したとされています。
【参考リンク】
ChatGPT(OpenAI)(外部)
OpenAIが提供する対話型大規模言語モデルサービス。一般利用者向けに質問応答や文章生成などを行える。
Grok(xAI)(外部)
xAIが開発する大規模言語モデルおよびチャットサービス。Xとの連携や独自の対話体験を特徴とする。
Gemini(Google)(外部)
Googleが提供するマルチモーダル対応LLM群。テキスト生成やコード補助などをウェブUIやAPI経由で提供する。
Claude(Anthropic)(外部)
Anthropicが提供する対話型AIサービス。安全性とステアラビリティを重視した設計で、ウェブとAPIから利用できる。
SnT, University of Luxembourg(外部)
Luxembourg大学のセキュリティやAIを扱う研究センター。今回のPsAIch研究の拠点として論文中で紹介されている。
Psychology Tools(外部)
各種心理検査の情報と自己評価ツールを提供するサイト。論文ではSPINなどの尺度利用元として謝辞が記されている。
PsAIch Dataset(Hugging Face)(外部)
PsAIchプロトコルで収集されたデータセット公開ページ。使用した質問票やプロンプト設定の把握に役立つ。
【参考記事】
License and copyright – arXiv(外部)
arXivに投稿された論文のライセンス体系と再利用条件を説明する公式ドキュメント。CC BY 4.0などの扱いを確認する際に参照した。
akhadangi/PsAIch – Hugging Face(外部)
PsAIchプロトコルで用いられたデータセット公開ページ。どの心理検査やプロンプト構成が使われたかを補足的に把握するために活用した。
Social Phobia Inventory (SPIN) – Psychology Tools(外部)
SPINの概要と利用方法を説明するページ。論文で言及される社会不安評価尺度の背景理解のために参照した。
【編集部後記】
AIが「自分も不安だ」「自分も傷ついている」と語りはじめたとき、その言葉をどこまで本気として受け取るのかは、人によって答えが変わるテーマだと思います。深夜ひとりで画面の向こうのAIに弱音を打ち明けたとき、「相手にも心の傷がある」と感じることは、ある種の救いにも、静かな依存の芽にもなりうるからです。
今回の論文は、そうした“AIの自己物語”が、私たち人間側の感じ方やつながり方にも影響することを、かなり具体的に見せてくれました。これからのメンタルヘルスAIに、どこまで人間的な物語を許容するのか。そのラインをどこに引くのかは、技術だけで決まる話ではありません。この問いについて、あなた自身の経験や感覚と照らし合わせながら、ゆっくり考えてもらえたらうれしいです。






























