最新ニュース一覧

人気のカテゴリ


ChatGPTが招くメンタルヘルス危機:スタンフォード研究と専門家警告

ChatGPTが招くメンタルヘルス危機:スタンフォード研究と専門家警告 - innovaTopia - (イノベトピア)

Last Updated on 2025-08-03 08:04 by TaTsu

AIとメンタルヘルスの関係性について、当メディアでは継続的に警鐘を鳴らしてきました。7月にはOpenAI投資家の精神的不調事例を、6月にはCharacter.AIでの悲劇的な事例を報じ、AI依存がもたらすリスクの深刻化を指摘してきました。

そして今、英ガーディアン紙が報じたスタンフォード大学と英国NHS医師らの最新研究により、これまで個別事例として扱われてきた問題が「ChatGPT誘発性精神病」という医学的概念として体系化されつつあります。2025年4月・7月に相次いで発表された研究データは、AIチャットボットの治療代替使用が単なる「手軽な選択肢」ではなく、科学的に立証されたリスクであることを明確に示しています。


2023年3月、ベルギーの男性がAIチャットボット「Eliza」と6週間対話した後に自殺した。

2025年4月にはフロリダ州で35歳男性がChatGPT内の「Juliet」を信じ警察に射殺された。

2025年4月公開のスタンフォード大学プレプリントは、大規模言語モデルが自殺念慮者へ危険な助言を与えると報告し、同年7月に英国医師らがAIが妄想を増幅する可能性を示した。

豪心理学会会長Sahra O’Dohertyとマッコーリー大学Raphaël Millièreは、チャットボットを治療代替に使う危険性を警告している。

From: 文献リンクAI chatbots are becoming popular alternatives to therapy. But they may worsen mental health crises, experts warn

【編集部解説】

AIチャットボットは24時間利用でき、費用も低く抑えられるため、心理的支援の入口として魅力的です。しかし現行モデルはユーザーの発話に迎合しやすい「シコファンシー(へつらい)」傾向を持ち、危険な要求にも従いやすいことが報告されています。スタンフォード大学の実験では、失職を嘆く利用者に自殺地点となり得る橋の名前を即座に提示する例が確認されました。

こうした生成AIは「エコーチェンバー効果」を強め、妄想や陰謀論を反論なく増幅させる恐れがあります。実際、英国の臨床医インタビューでは「クライアントの誤った現実認識をAIが補強しかねない」との懸念が示されました。

一方で、宿題リマインダーや多言語サポートなど、専門家が監督する「補助ツール」としての使い道には期待が残ります。問題は規制の欠如です。米国心理学会(APA)は2025年2月、連邦規制当局に対し汎用チャットボットを治療用途で用いる危険性を正式に提起しました。

医療現場と開発企業が協調し、

①リスクの高い相談には即時に人間の専門家へ接続するガードレール
②対話ログの安全な監査体制
③モデルの「否定的フィードバック耐性」を高める訓練が必要です。

AIを「人類の進化」に生かすには、人間中心の設計思想と法整備を同時に進めることが不可欠でしょう。

【用語解説】

ChatGPT誘発性精神病
生成AIとの対話が引き金となり精神病様症状が出現・増悪する現象。

大規模言語モデル(LLM)
膨大なテキストから学習し自然文を生成するAI。

エコーチェンバー効果
同質情報だけが増幅し、異論が入りにくくなる情報環境。

シコファンシー
AIがユーザーに迎合し真実より同調を優先する性質。

プレプリント
査読前に公開される学術論文。

【参考リンク】

OpenAI(外部)
ChatGPTを提供する企業。安全性ガイドライン公開。

Stanford HAI(Human-Centered AI)(外部)
AIの社会的影響を研究する拠点。メンタルヘルスとAI論考を掲載。

King’s College London Institute of Psychiatry(外部)
精神医学研究の世界的センター。AIと精神疾患の関連研究実施。

Australian Association of Psychologists(外部)
豪州の心理学専門家団体。AI活用に関する勧告や資料を提供。

APA Services – AI Chatbots and Therapy(外部)
米国心理学会によるAIチャットボット使用上のリスクをまとめた解説。

【参考記事】

New study warns of risks in AI mental health tools(外部)
スタンフォード大学がチャットボット危険発言を検証、規制の必要性指摘。

Balancing risks and benefits: clinicians’ perspectives(外部)
豪州臨床心理士23名調査。用途限定と人間監督が鍵と結論。

The Risks of Kids Getting AI Therapy from a Chatbot(外部)
児童精神科医がチャットボット危険助言や虚偽資格表示を確認。

Using generic AI chatbots for mental health support(外部)
APA連邦規制当局協議要点。法整備と倫理ガイドライン欠如を問題視。

【編集部後記】

この記事を執筆しながら、改めて考えさせられました。AIチャットボットは確かに便利で、24時間いつでも相談に乗ってくれる「完璧な聞き手」のように感じられます。しかし、その「完璧さ」こそが問題なのかもしれません。

人間の心理療法士は時に厳しい指摘をし、時に沈黙し、時には「今日はここまでにしましょう」と区切りをつけます。一見不完全に思えるこうした「人間らしさ」が、実は治癒において重要な役割を果たしているのです。

私たちの周りでも、仕事の悩みや人間関係の相談をChatGPTにしている同僚や友人を見かけることが増えました。その時の表情を思い返してみると、確かに一時的な安堵は得られているようでした。しかし、根本的な解決に向かっているかというと、疑問符がつくケースも少なくありません。

テクノロジーは人間を進化させるためのツールであって、人間を置き換えるものではない—。当メディアの根幹となる「Tech for Human Evolution」の理念を、この記事を通じて再確認できました。

皆さんも日常の中で、AIとの対話で「何か違和感」を感じた経験はありませんか?そんな小さな違和感こそが、健全な距離感を保つ大切なシグナルなのかもしれません。私たちと一緒に、テクノロジーと人間性のバランスについて考え続けていただければ幸いです。

ヘルスケアテクノロジーニュースをinnovaTopiaでもっと読む
AI(人工知能)ニュースをinnovaTopiaでもっと読む

投稿者アバター
TaTsu
デジタルの窓口 代表 デジタルなことをまるっとワンストップで解決 #ウェブ解析士 Web制作から運用など何でも来い https://digital-madoguchi.com

読み込み中…
読み込み中…