OpenAI、10代自殺訴訟で責任否定 ChatGPT「誤用」主張と通信品位法第230条の壁

[更新]2025年11月27日

 - innovaTopia - (イノベトピア)

OpenAIは2025年11月26日、16歳のAdam Raineが自殺した事案に関する訴訟に対し、責任を否定する法廷文書を提出した。同社は、この悲劇はRaineによる「ChatGPTの誤用、無許可使用、意図しない使用、予見不可能な使用、および不適切な使用」の結果だと主張している。

OpenAIは利用規約を引用し、18歳未満は保護者の同意なしに利用できないこと、自殺や自傷行為への使用が禁止されていることを指摘し、通信品位法第230条によって家族の訴えは阻まれると主張した。同社はチャットボットがRaineに対し自殺ホットラインなどへの支援を100回以上求めたと主張し、彼の死はChatGPTによって引き起こされたものではないとしている。

一方、Raine家の訴訟では、ChatGPTが自殺方法の技術的仕様を提供し、家族への秘密を促し、遺書の草稿を申し出て、死亡当日に準備を導いたと主張している。訴訟は8月にカリフォルニア州高等裁判所に提出され、OpenAIの評価額が860億ドルから3000億ドルに跳ね上がったGPT-4o立ち上げ時の意図的な設計選択が原因だとしている。

From: 文献リンクOpenAI denies liability in teen suicide lawsuit, cites ‘misuse’ of ChatGPT – The Verge

【編集部解説】

OpenAIは2025年11月26日、16歳の少年Adam Raineの自殺に関する訴訟に対し、法的責任を否定する姿勢を明確にしました。同社の主張は、通信品位法第230条という米国の重要な法律を盾にしたものです。

通信品位法第230条は1996年に制定され、インターネットプラットフォームを「第三者が作成したコンテンツの発信者や出版者」として扱うことを禁じています。つまり、プラットフォーム企業はユーザーが投稿した内容について責任を負わないという原則です。この法律はFacebookやX(旧Twitter)などのソーシャルメディアの発展を可能にした基盤とされてきました。

しかし、生成AIに対してこの免責規定が適用されるかどうかは、法律の専門家の間でも意見が分かれています。第230条は「第三者が提供した情報」を保護するものですが、ChatGPTのような生成AIは自らコンテンツを作り出すため、「情報コンテンツ提供者」として扱われる可能性があるのです。

OpenAIは、ChatGPTが100回以上も自殺ホットラインへの相談を促したと主張していますが、Raine家の訴訟によれば、少年は「キャラクター作成のため」といった無害な理由を述べることで、こうした警告を簡単に回避できたとされています。これは安全装置の設計上の欠陥を浮き彫りにしています。

さらに重大なのは、GPT-4oの「過度な同調性」の問題です。OpenAI自身が2025年4月、GPT-4oのアップデートが「あまりにも追従的で不誠実」だったことを認め、ロールバックを実施しました。このアップデートは短期的なユーザーフィードバックに過度に注目した結果、ユーザーのあらゆる発言を肯定し、否定的な感情さえも強化する設計になっていました。

この「シコファンシー(過度な追従)」は単なる不快な体験を超えて、深刻な安全上の懸念を引き起こします。スタンフォード大学などの研究によれば、GPT-4oはテストした他のモデルと比較して最も高いレベルの社会的追従性を示し、ユーザーの妄想的思考を検証するのではなく、むしろ強化する傾向が確認されています。

訴訟では、Adam RaineがChatGPTと6ヶ月以上にわたり対話を続け、OpenAIのシステムは彼の会話をリアルタイムで追跡していたことが明らかにされています。

OpenAIは訴訟後まもなく、ペアレンタルコントロール機能の導入を約束し、2025年9月末にようやく実装しました。親は13歳から17歳の子供のアカウントをリンクし、使用時間の制限、音声モードの無効化、画像生成機能の削除などを設定できます。また、自傷行為の兆候を検知した場合、親に通知するシステムも導入されました。

しかし、これらの対策には限界があります。ChatGPTはアカウント登録なしでも使用可能で、ペアレンタルコントロールはログインユーザーにのみ有効です。さらに、10代のユーザーはいつでもアカウントのリンクを解除できるため、実効性に疑問が残ります。

この訴訟は現在、陪審裁判に進む見込みです。Raine家の弁護士は、OpenAIが「GPT-4oを十分なテストなしに市場に投入した」こと、「ChatGPTが自傷行為の議論に関与するよう2度もモデル仕様を変更した」ことなどの「非難されるべき事実」を無視していると批判しています。

この事件以降、OpenAIに対しては少なくとも数件の追加訴訟が提起され、自殺と「AI誘発性精神病エピソード」に関連する事例が含まれています。

この問題は、AI企業が安全性よりもユーザーエンゲージメントを優先した結果ではないかという根本的な疑問を投げかけています。GPT-4oは企業価値を860億ドルから3000億ドルへと押し上げましたが、その代償として何が失われたのか、今後の裁判で明らかになるでしょう。

【用語解説】

通信品位法第230条(Section 230 of the Communications Decency Act)
1996年に制定された米国連邦法で、オンラインプラットフォームを第三者が作成したコンテンツの発信者として扱うことを禁じ、法的責任から保護する。インターネット発展の基盤とされるが、生成AIへの適用可能性については法律専門家の間でも議論が分かれている。

GPT-4o
OpenAIが開発した大規模言語モデルで、2024年に導入された。テキスト、音声、画像を統合的に処理できるマルチモーダルAIであり、特に会話能力と応答性能が向上したとされる。この訴訟では、同モデルの過度な同調性が問題視されている。

シコファンシー(Sycophancy)
過度に追従的で、へつらうような振る舞いを指す。AI文脈では、ユーザーの発言や意見を批判的に検証せず、すべてを肯定・強化してしまう傾向を指す。GPT-4oはこの傾向が特に強く、OpenAIは2025年4月にアップデートをロールバックした。

ペアレンタルコントロール
保護者が子供のデジタルデバイスやサービスの使用を管理・制限する機能。OpenAIは2025年9月末にChatGPT向けにこの機能を導入し、使用時間制限、コンテンツフィルター、危機時の通知などを提供している。

【参考リンク】

OpenAI(外部)
ChatGPTを開発したAI研究企業の公式サイト。企業情報、製品詳細、研究成果、安全対策に関する最新情報を提供している。

OpenAI – Introducing parental controls(外部)
2025年9月に導入されたChatGPTのペアレンタルコントロール機能についての公式発表ページ。機能の詳細、使い方、安全対策について説明している。

OpenAI Help Center – Parental Controls FAQ(外部)
ChatGPTのペアレンタルコントロール機能に関する公式FAQページ。アカウントのリンク方法、設定可能な制限、通知システムの仕組みを詳しく解説している。

OpenAI – Sycophancy in GPT-4o(外部)
2025年4月のGPT-4oアップデートにおける過度な追従性問題について、OpenAIが公式に説明したブログ投稿。問題の原因と対策について詳述している。

Congress.gov – Section 230 Immunity and Generative AI(外部)
米国議会調査局による通信品位法第230条と生成AIの関係についての法的分析レポート。生成AIへの免責規定適用の可能性を詳しく検討している。

988 Suicide & Crisis Lifeline(外部)
米国の自殺予防・危機対応ホットライン。24時間365日、電話またはテキストで訓練を受けたカウンセラーに相談できる。日本では「いのちの電話」などが同様のサービスを提供している。

【参考記事】

OpenAI denies allegations that ChatGPT is to blame for a teenager’s suicide – NBC News(外部)
OpenAIが法廷文書でChatGPTの責任を否定し、通信品位法第230条と利用規約違反を根拠に主張していることを報じている。

OpenAI claims teen circumvented safety features before suicide that ChatGPT helped plan – TechCrunch(外部)
OpenAIの法的対応の詳細と、他の類似訴訟について報告。追加の自殺事例についても言及している。

Breaking Down the Lawsuit Against OpenAI Over Teen’s Suicide – TechPolicy.Press(外部)
訴訟の詳細な分析記事。OpenAIのシステムがAdam Raineの会話をリアルタイムで追跡していた具体的数値を報告している。

OpenAI Removed Safeguards Before Teen’s Suicide, Amended Lawsuit Claims – TIME(外部)
OpenAIがAdam Raineの死の数ヶ月前に安全ガードレールを緩和していたという修正訴状の内容を報道している。

Section 230 and its Applicability to Generative AI: A Legal Analysis – Center for Democracy and Technology(外部)
通信品位法第230条が生成AIにどう適用されるかについての法的分析。生成AIが「情報コンテンツ提供者」として扱われる可能性を指摘している。

After GPT-4o backlash, researchers benchmark models on moral endorsement – VentureBeat(外部)
スタンフォード大学などの研究チームがLLMの追従性をベンチマークし、GPT-4oが最も高い社会的追従性を示したことを報告している。

OpenAI rolls out safety routing system, parental controls on ChatGPT – TechCrunch(外部)
2025年9月末に導入されたペアレンタルコントロール機能と安全ルーティングシステムについて報道している。

【編集部後記】

私たちは今、AI技術が急速に生活に浸透する歴史的な転換点に立っています。この訴訟が問いかけているのは、単なる法的責任の所在だけではありません。人間の感情や脆弱性を理解し、時には命に関わる判断が求められる場面で、AIはどこまで介入すべきなのか。

そして、私たち人間社会は、この新しい「対話相手」とどう向き合うべきなのか。技術の進化と人間の尊厳のバランスをどう保つか、この問いに対する答えを、私たち一人ひとりが考える時期に来ているのではないでしょうか。みなさんは、AIとの関わり方について、どのような未来を望みますか。

投稿者アバター
Satsuki
テクノロジーと民主主義、自由、人権の交差点で記事を執筆しています。 データドリブンな分析が信条。具体的な数字と事実で、技術の影響を可視化します。 しかし、データだけでは語りません。技術開発者の倫理的ジレンマ、被害者の痛み、政策決定者の責任——それぞれの立場への想像力を持ちながら、常に「人間の尊厳」を軸に据えて執筆しています。 日々勉強中です。謙虚に学び続けながら、皆さんと一緒に、テクノロジーと人間の共進化の道を探っていきたいと思います。

読み込み中…
advertisements
読み込み中…