OpenAIは2026年1月20日、ChatGPTのコンシューマープランに年齢予測モデルを展開すると発表した。このモデルは18歳未満のユーザーアカウントを特定するためのもので、アカウントレベルのシグナルと行動シグナルを組み合わせて機能する。
使用パターン、アカウント存続期間、アクティブ時間帯、申告年齢などを分析する。18歳未満と判定されたユーザーには、自傷行為の描写などセンシティブなコンテンツへの露出を減らす保護機能が自動適用される。誤判定された場合は本人確認サービスPersonaで完全アクセスを復元できる。
OpenAIはFTCからAIチャットボットが子どもやティーンエイジャーに与える影響について調査を受けており、十代の少年の自殺死に関する不法死亡訴訟にも関与している。同社は8月にペアレンタルコントロールのリリースを発表し、9月に展開、10月にはAIがメンタルヘルスに与える影響について洞察を提供する8人の専門家評議会を招集した。このモデルは今後数週間で欧州連合でも展開される予定である。
From:
OpenAI is rolling out age prediction for ChatGPT consumer plans
【編集部解説】
OpenAIがChatGPTに年齢予測モデルを導入したのは、AI技術が社会に深く浸透する中で、企業が果たすべき責任の輪郭が明確になってきたことを示しています。特に未成年者の保護という観点は、テクノロジー業界全体が直面している喫緊の課題です。
この年齢予測モデルの技術的な仕組みは興味深いものがあります。従来の年齢確認が自己申告に頼っていたのに対し、OpenAIは使用パターン、アカウント存続期間、アクティブ時間帯などの複合的なシグナルを分析します。これは機械学習の文脈で言えば、多次元データから年齢を推定する分類問題として捉えられます。
ただし、この種の予測モデルには必然的に誤判定のリスクが伴います。OpenAIが本人確認サービスPersonaとの連携を用意しているのは、このリスクへの対応策と言えるでしょう。Personaは政府発行IDなどを用いた本人確認サービスで、Robloxなどのプラットフォームでもすでに採用されています。
今回の措置の背景には、規制当局からの圧力と訴訟リスクという二つの要因があります。FTC(連邦取引委員会)からの調査は、AIチャットボットが未成年者に与える影響について業界全体を対象としています。さらに深刻なのは、十代の少年の自殺死に関連してOpenAIが不法死亡訴訟に巻き込まれている事実です。
ChatGPTが18歳未満と判定したユーザーに適用する保護機能は、自傷行為の描写などセンシティブなコンテンツへの露出を減らすよう設計されています。これはAIの出力を制御するという技術的挑戦でもあります。大規模言語モデルの応答を年齢に応じて適応させるには、推論時の制約設定やコンテンツフィルタリングの精度向上が必要です。
OpenAIは2025年8月にペアレンタルコントロールを予告し、9月に実装、そして10月にはメンタルヘルスの専門家8人からなる評議会を設置しました。今回の年齢予測モデルはこの一連の安全対策の最新ステップと位置づけられます。
欧州連合での展開が「地域の要件を考慮するため」数週間遅れることも注目に値します。EUは一般データ保護規則(GDPR)やデジタルサービス法(DSA)など、オンラインサービスに対する厳格な規制を持っています。年齢予測という技術は個人データの処理を伴うため、これらの法規制との整合性が求められます。
この動きは、AI企業が単なる技術提供者から、社会的責任を担うプラットフォーム運営者へと役割を拡大していることを象徴しています。技術の進化速度が規制の整備を上回る中で、企業による自主的な安全対策がますます重要になっているのです。
【用語解説】
FTC(連邦取引委員会)
米国の独立機関で、消費者保護と競争法の執行を担当する。テクノロジー企業のプライバシー侵害や不公正な商慣行を調査・規制する権限を持つ。
ペアレンタルコントロール
保護者が子どものデジタル機器やサービスの使用を管理・制限する機能の総称。使用時間の制限、コンテンツフィルタリング、使用状況のモニタリングなどを含む。
不法死亡訴訟
過失や不法行為により死亡した人の遺族が、その原因を作った個人や組織に対して損害賠償を求める民事訴訟。米国ではwrongful death lawsuitと呼ばれる。
GDPR(一般データ保護規則)
2018年にEUで施行された個人データ保護に関する法規制。企業による個人データの収集、処理、保存に厳格な要件を課し、違反には多額の制裁金が科される。
デジタルサービス法(DSA)
2024年にEUで施行された法律で、オンラインプラットフォームに対してコンテンツモデレーション、透明性、未成年者保護などの義務を課す。
【参考リンク】
OpenAI(外部)
ChatGPTを開発する人工知能研究企業。GPTシリーズなどの大規模言語モデルを提供している。
Persona(外部)
本人確認および不正防止サービスを提供する企業。政府発行IDなどを用いた身元確認を可能にする。
Roblox(外部)
ユーザーがゲームを作成・共有できるオンラインプラットフォーム。若年層に人気があり、未成年者保護に力を入れている。
Federal Trade Commission (FTC)(外部)
米国連邦取引委員会の公式サイト。消費者保護と競争法執行を担当する独立機関。
【参考記事】
Updating our Model Spec with teen protections | OpenAI(外部)
年齢予測モデルとU18原則の発表。10代ユーザーの安全対策を説明。
Building towards age prediction | OpenAI(外部)
年齢予測システム構築に向けた取り組みを説明する公式記事。ペアレンタルコントロール詳細を発表。
OpenAI will try to guess your age before ChatGPT gets spicy | The Register(外部)
年齢予測システムの技術的詳細とプライバシー擁護団体からの批判を掲載。
FTC launches inquiry into AI ‘companion’ chatbots | CNN Business(外部)
2025年9月のFTC調査発表。OpenAI含む7社を対象にした調査詳細を報道。
OpenAI denies allegations that ChatGPT is to blame for a teenager’s suicide | NBC News(外部)
OpenAIの反論内容を報じる記事。ChatGPTが100回以上危機支援を提示したと主張。
ChatGPT encouraged college graduate to commit suicide, family claims | CNN(外部)
Adam Raine君の訴訟以降、追加で7件の不法死亡訴訟が提起されたことを報道。
【編集部後記】
AIチャットボットが私たちの日常に深く入り込んでいく中で、今回の年齢予測モデルは一つの重要な転換点を示しています。技術の進化は常に新しい可能性を開く一方で、予期せぬリスクも生み出します。特に未成年者の保護という観点では、企業の自主的な取り組みと規制当局の監視、そして私たち利用者の意識がバランスよく機能することが不可欠です。OpenAIの今回の措置は賞賛に値する一歩ですが、同時に完璧なシステムは存在しないことも認識しておく必要があります。皆さんは、AIと未成年者の関係について、どのような保護策が最も効果的だと思いますか?






がもたらす「アンテザード・ソサエティ」の衝撃-300x200.png)





























