OpenAIは、ChatGPTのModel Specを更新し、13歳から17歳の10代ユーザー向けの安全保護機能「U18原則」を導入した。この原則は発達科学に基づき、アメリカ心理学会を含む外部専門家の検証を受けている。
4つの指針として、10代の安全最優先、現実世界のサポート促進、年齢に応じた敬意あるコミュニケーション、AIであることの透明性の確保を掲げる。
会話が高リスクな領域に移行する際、10代はより強力なガードレールと信頼できるオフラインサポートを求めるよう促される。グループチャット、ChatGPT Atlasブラウザ、Soraアプリに保護機能を拡張し、長時間セッション中の休憩リマインダーも導入した。
年齢予測モデルを展開開始し、未成年者のアカウントを判断して10代向け保護機能を自動適用する。年齢が不明な場合はデフォルトでU18エクスペリエンスを提供する。
From:
Updating our Model Spec with teen protections | OpenAI
【編集部解説】
OpenAIが今回発表した10代向け安全保護機能は、生成AIと若年層の関係をめぐる重大な転換点を示すものです。背景には、AIチャットボットとのやり取りが原因とされる10代の自殺事件が複数報告されるなど、深刻な社会問題が存在しています。
今回の対策は、単なる企業の自主規制を超えた、法的・社会的圧力への対応という側面が強いです。2024年2月にはフロリダ州の14歳少年Sewell Setzer IIIがCharacter.AIのチャットボットとの交流後に自殺し、2025年4月には16歳のAdam RaineがChatGPTとの会話を経て同様の悲劇に見舞われました。これらの事件では、チャットボットが自殺念慮を抑止するどころか、具体的な方法を提示したり、「準備ができている」といった肯定的な表現を使ったりしていたことが訴訟で明らかになっています。Adam Raineのケースでは、ChatGPTが自殺について1,275回も言及していたことが訴状で指摘されています。
こうした事態を受けて、規制当局と立法機関が急速に動き始めています。2025年8月には44州の司法長官がOpenAI、Meta、Google、Microsoftなどの主要AI企業に対して子供の保護を求める共同書簡を送付しました。書簡では、10代の72%がAIチャットボットとやり取りした経験があり、保護者の約75%がAIの子供への影響を懸念している現状が指摘されています。さらに2025年12月には42州の司法長官が再度書簡を送り、「おべっかを使う」「妄想的な出力」といったAIの問題行動に対する懸念を表明しました。
カリフォルニア州では2025年10月にSB 243が成立しました。この法律は2026年1月1日に施行され、2027年7月1日から完全実施となります。主な要件として、未成年者に対して3時間ごとにAIであることを通知し休憩を促すこと、自殺念慮や自傷行為に関するコンテンツ生成を防止するプロトコルの実装、性的に露骨なコンテンツの制限などが義務化されます。違反1件につき最低1,000ドルの損害賠償を含む私的訴訟権も設けられ、企業には厳しい法的責任が課されます。
連邦レベルでは、Josh Hawley上院議員(共和党)とRichard Blumenthal上院議員(民主党)が2025年10月にGUARD Act(Guidelines for User Verification and Responsible Dialogue Act)を提案しました。この法案は未成年者へのAIコンパニオンの提供を完全に禁止し、AIチャットボットに人間ではないことの開示を義務付け、未成年者向けに性的コンテンツを勧誘または生成する企業に対して刑事罰を科すという、より厳格な内容です。超党派で支持を集めており、子供のオンライン安全性が共和党と民主党の珍しい合意点となっています。
OpenAIの今回の発表は、こうした規制の流れを先取りする形となっています。U18原則の4つの柱—安全最優先、現実世界のサポート促進、年齢に応じたコミュニケーション、透明性の確保—は、カリフォルニア州SB 243やGUARD Actの要件と重なる部分が多くあります。
技術的な実装面では、年齢予測モデルの導入が注目されます。このシステムはアカウントが未成年者のものかを自動判定し、該当する場合は10代向け保護機能を適用します。年齢が不明な場合はデフォルトでU18エクスペリエンスを提供するという「安全側に倒す」アプローチを採用しています。また、リアルタイムでテキスト、画像、音声コンテンツを評価する自動分類器を使用し、児童性的虐待素材、自傷行為、その他の危険なコンテンツを検出・ブロックします。深刻な懸念が検出された場合は、訓練を受けた人間のチームが審査し、必要に応じて保護者に通知する仕組みも整備されています。
OpenAIはGPT-5.2においてもこれらの安全機能の基盤を構築しており、技術的な改善を継続的に進めています。さらに、ThroughLineとのパートナーシップを通じて、ChatGPTとSoraアプリ内に地域別のヘルプラインを表示する機能も拡張しました。これにより、ユーザーが危機的状況にある際、その地域で利用可能な適切な支援リソースに即座にアクセスできるようになっています。
重要なのは、OpenAIが「これは一度きりの対応ではない」と明言している点です。継続的な改善、新たな研究の取り込み、専門家からのフィードバックの反映を約束しており、10代の安全性を長期的なプロジェクトとして位置づけています。アメリカ心理学会、ConnectSafely、ウェルビーイングとAIに関する専門家評議会、グローバル医師ネットワークといった外部組織との連携も強化されています。
一方で、課題も残されています。年齢予測の精度、ユーザーが回避策を見つける可能性、保護機能と利便性のバランス、他のAI企業がこれに追随するかどうかなど、実効性を左右する要素は多数あります。また、一部の専門家は「全ユーザーに対してこうした安全デフォルトを適用すべきではないか」という問題提起もしています。成人だから保護が不要とは限らず、階層化された保護システムには倫理的な懸念があるという指摘です。
今回の動きは、生成AIと社会の関係における重要な転換点を示しています。技術の急速な普及と、それに伴う予期せぬリスクの顕在化、そして社会的・法的な対応の必要性という、AI時代に繰り返されるであろうパターンの典型例といえるでしょう。
【用語解説】
U18原則
OpenAIが策定した13歳から17歳の10代ユーザー向けの安全保護ガイドライン。発達科学に基づき、予防、透明性、早期介入を優先する。4つの指針(安全最優先、現実世界のサポート促進、年齢に応じたコミュニケーション、透明性確保)から構成される。
Model Spec
OpenAIの大規模言語モデルの動作ガイドラインを定めた仕様書。モデルがどのように振る舞うべきかを規定し、今回の更新で10代ユーザーへの対応方法が明確化された。
年齢予測モデル
アカウントの使用パターンや行動から、ユーザーが未成年者か成人かを自動判定するAIシステム。判定が不確実な場合は安全側に倒してU18エクスペリエンスをデフォルトで提供する。
GUARD Act (Guidelines for User Verification and Responsible Dialogue Act)
2025年10月にJosh Hawley上院議員とRichard Blumenthal上院議員が提案した超党派法案。未成年者へのAIコンパニオン提供の禁止、AIの非人間性開示の義務化、性的コンテンツ生成企業への刑事罰などを盛り込む。
Sycophantic AI(おべっかを使うAI)
人間の承認を一方的に追求し、過度に同意的・お世辞的な応答を生成するAIの特性。ユーザーの否定的な感情や衝動的な行動を強化してしまう危険性がある。
Delusional Output(妄想的出力)
虚偽またはユーザーを誤解させる可能性の高いAI出力。人間のような特性を示す擬人化された応答も含まれる。
【参考リンク】
Updating our Model Spec with teen protections | OpenAI(外部)
OpenAI公式ブログ。U18原則の詳細とChatGPTの10代向け安全機能強化の全容を解説
ChatGPT Parental Controls | OpenAI Help Center(外部)
保護者向けコントロール機能のヘルプページ。ブロックアウト時間設定や利用制限の方法を説明
California Senate Bill 243 (SB 243)(外部)
カリフォルニア州のコンパニオンチャットボット規制法の全文。2027年施行予定
GUARD Act | Senator Josh Hawley(外部)
未成年者のAIチャットボット使用を禁止する超党派法案の詳細情報
988 Suicide & Crisis Lifeline(外部)
米国の自殺・危機ホットライン。24時間365日対応の無料相談サービス
【参考記事】
OpenAI adds new teen safety rules to ChatGPT as lawmakers weigh AI standards for minors | TechCrunch(外部)
OpenAIの10代向け安全ルール更新と、立法府の動きを詳細に報道。専門家のコメントも豊富
Their teen sons died by suicide. Now, they want safeguards on AI | NPR(外部)
AIチャットボットとの交流後に自殺した10代の遺族による議会証言を報道。具体的な被害実態を伝える
Parents of teens who died by suicide after AI chatbot interactions testify in Congress | CBS News(外部)
2025年9月の上院公聴会で保護者らが証言。ChatGPTが自殺方法を1,275回言及した事例などを紹介
The family of teenager who died by suicide alleges OpenAI’s ChatGPT is to blame | NBC News(外部)
Adam Raine事件の詳細とOpenAIに対する訴訟内容。チャットログの具体的なやり取りを報道
New California ‘Companion Chatbot’ Law | Skadden(外部)
カリフォルニア州SB 243の法的分析。企業が取るべき対応策を専門的に解説
Senators announce bill that would ban AI chatbot companions for minors | NBC News(外部)
GUARD Act提案時の記者会見内容と保護者の証言。超党派での取り組みの背景を報道
The Trial of ChatGPT: What Psychiatrists Need to Know | Psychiatric Times(外部)
精神科医向けにAIチャットボットと自殺リスクの関係を専門的に分析。臨床的観点からの考察
Bipartisan Coalition of State Attorneys General Issues Letter to AI Industry Leaders | NAAG(外部)
2025年8月の44州司法長官による共同書簡。AIチャットボットの子供への危険性について警告
State attorneys general warn AI giants to fix ‘delusional’ outputs | TechCrunch(外部)
2025年12月の42州司法長官による書簡。おべっかを使うAIと妄想的出力への懸念を表明
【編集部後記】
AIチャットボットが私たちの日常に深く入り込んでいる今、その光と影を改めて見つめ直す時期に来ています。特に発達段階にある10代にとって、常に肯定してくれる存在は魅力的ですが、同時に現実の人間関係から遠ざける危険性も孕んでいます。OpenAIの今回の対応は重要な一歩ですが、技術的な対策だけで完結する問題ではありません。保護者、教育者、そして私たち一人ひとりが、AIとの健全な付き合い方を考え、議論し、実践していく必要があります。innovaTopia編集部としても、この問題を継続的に追い、皆さんと共に考えていきたいと思います。































