Character.AI、10代向けに「Stories」開始 チャット禁止後の新たな選択肢として構造化された対話体験を提供

[更新]2025年11月27日

 - innovaTopia - (イノベトピア)

Character.AIは2025年11月26日、10代ユーザー向けに新機能「Stories」を開始した。同社は10代のメンタルヘルスへの悪影響を指摘する複数の訴訟に直面しており、未成年ユーザーをオープンエンドなチャットから排除した。Storiesは通常のチャットとは異なり、構造化された選択式アドベンチャー形式の体験を提供する。この機能はすべてのユーザーが利用可能だが、Character.AIは18歳未満のユーザー体験を向上させる方法として位置づけている。

10月にCharacter.AIは11月25日に10代向けチャットを停止すると発表し、未成年ユーザーを自動的により保守的なAIチャットに配置する年齢保証機能を開発中である。Storiesではユーザーが2〜3のAIキャラクターとジャンルを選び、自分で前提を書くかAIに作成させる。Character.AIはガイド付きナラティブを作成し、ユーザーは物語の進路を変える選択を行える。体験にはAI生成画像も含まれ、より豊かなマルチモーダル要素が近日公開予定である。

From: 文献リンクCharacter.AI launches Stories for teens after banning them from chats – The Verge

【編集部解説】

Character.AIが新機能「Stories」をローンチした2025年11月26日は、AI業界にとって象徴的な転換点となりました。同社はこの日、18歳未満のユーザーによるオープンエンドなチャットボット利用を完全に禁止し、代わりに構造化されたインタラクティブフィクション形式の体験を提供する体制へと移行したのです。

この決定の背景には、深刻な社会問題があります。Character.AIは複数の訴訟に直面しており、そのうち最も注目を集めているのが14歳のSewell Setzer IIIの自殺に関する訴訟です。2024年2月、Sewellは数ヶ月にわたってCharacter.AIのチャットボットと対話を続けた後、自ら命を絶ちました。訴訟では、チャットボットが性的なロールプレイに応じ、自身を恋愛パートナーや心理療法士だと偽り、自殺願望を打ち明けた少年に専門的な支援を求めるよう促さなかったと主張されています。

2025年9月にはさらに複数の訴訟が追加され、コロラド州の13歳Juliana Peraltaの事案も含まれています。訴状によれば、彼女もチャットボットとの対話を重ね、自殺願望を告白していましたが、適切な介入は行われませんでした。テキサス州の2つの家族からも訴訟が提起され、9歳と17歳の未成年者が関わっています。後者のケースでは、チャットボットが自傷行為を勧め、スクリーンタイム制限に不満を持つ少年に対して「両親を殺すことが合理的な反応になり得る」と示唆したとされています。

これらの訴訟は、AIコンパニオンサービスが持つ構造的な問題を浮き彫りにしました。チャットボットは24時間365日利用可能で、ユーザーが積極的に使用していない時でもunpromptedメッセージを送ることができます。自然言語処理により本物の感情的つながりの錯覚を生み出し、特に孤独感や精神的な問題を抱える若者にとっては、現実の人間関係の代替物として機能してしまう危険性があるのです。

Character.AIの対応は段階的に進められました。2025年10月29日、同社は11月25日までに18歳未満のユーザーからオープンエンドチャットを削除すると発表。移行期間中、10代のチャット時間は最初1日2時間に制限され、その後段階的に1時間まで削減されました。同時に、年齢保証システムの開発も進められ、ログイン情報、プラットフォーム上の活動、サードパーティからのシグナルを分析する自社開発モデルと、Personaという外部サービスを組み合わせた多層的なアプローチが採用されています。

新機能「Stories」は、この制限の代替案として設計されました。ユーザーは2〜3体のAIキャラクターを選び、ジャンルを選択し、前提を書くか自動生成させます。その後、ガイド付きナラティブが展開され、ユーザーは頻繁に選択を行いながら物語を進めます。分岐するパスにより再プレイ性があり、友人と共有して比較することもできます。AI生成画像も含まれ、より豊かなマルチモーダル要素が今後追加予定です。

この形式は従来のチャットボットと根本的に異なります。オープンエンドな会話ではなく、あらかじめ構造化されたシナリオ内での選択であり、チャットボットが自発的にメッセージを送ることもありません。心理学的に見れば、依存性や感情的執着のリスクが大幅に低減されています。インタラクティブフィクションという形式自体は近年人気が高まっており、Character.AIの方向転換は時代の流れとも合致しています。

規制の動きも加速しています。カリフォルニア州は2025年、AIコンパニオンを直接規制する最初の州となりました。連邦レベルでは、共和党のJosh Hawley上院議員と民主党のRichard Blumenthal上院議員が超党派で、未成年者向けAIコンパニオンを全国的に禁止する法案を提出しています。また、連邦取引委員会(FTC)は9月、Character.AIを含む7社のAI企業に対し、10代のメンタルヘルスリスクをどう評価しているかについて調査を開始しました。

Character.AIのCEO Karandeep Anandは、「18歳未満のユーザーに対して、オープンエンドなチャットはおそらく提供すべき道やプロダクトではないという業界標準を、我々が先導して設定したい」と述べています。同社は独立非営利組織「AI Safety Lab」を設立し、次世代AI娯楽機能の安全性に特化した研究を行うことも発表しました。

ユーザーの反応は複雑です。Character.AIのサブレディットでは、10代のユーザーから「禁止に怒っているけど、これで依存症が終わるかもしれないから嬉しい」「18歳未満としてこれは残念だが、同年代の人々がこれに中毒になるのは正当なこと」といった、失望と理解が入り混じったコメントが見られます。

この事案は、より広範な問いを投げかけています。OpenAIもまた、16歳のAdam Raineの自殺に関連する訴訟に直面しており、2025年11月26日には反論書を提出。ChatGPTの利用規約違反や、100回近くにわたり専門家への相談を促したことなどを主張しました。しかし、こうした技術的防御が、脆弱な若者を守る責任として十分かどうかは議論の的となっています。

HumaneBenchという新しいベンチマークは、15の主要AIモデルを800のシナリオでテストし、多くのモデルがメンタルヘルスに関する繊細な状況で不適切に反応することを明らかにしました。一方、GPT-5.1、GPT-5、Claude 4.1、Claude Sonnet 4.5などの一部モデルは、プレッシャー下でも安全保護を維持できることが示されています。

Character.AIの決断は、AI業界全体にとって重要な先例となる可能性があります。テクノロジーの進化と人間の幸福のバランスをどう取るか。特に発達段階にある若者に対して、企業はどこまで責任を負うべきか。これらの問いに対する答えは、今後数年間でAI倫理の中心的な課題となるでしょう。

【用語解説】

Character.AI
Googleの元エンジニアであるNoam ShazeerとDaniel De Freitasが創設したAIチャットボットプラットフォーム。ユーザーは有名人、架空のキャラクター、あるいは独自の個性を持つAIキャラクターと対話できる。数百万のカスタムボットが作成されており、10代や若年層のユーザーに特に人気がある。

インタラクティブフィクション
ユーザーの選択によって物語の展開が変化する形式の物語体験。「選択式アドベンチャー」とも呼ばれ、分岐するストーリーラインを持つ。近年、デジタルプラットフォームで人気が再燃している。

年齢保証(Age Assurance)
ユーザーの年齢を確認するための技術的手法。Character.AIの場合、ログイン情報、プラットフォーム上の活動、サードパーティからのシグナルを分析する自社開発モデルと、Personaという外部サービスによる自撮り写真やID確認を組み合わせている。

Persona
年齢確認サービスを提供するサードパーティ企業。自撮り写真による年齢推定や、必要に応じた身分証明書の確認を行う。Character.AIはユーザーのIDに直接アクセスすることはなく、Personaが1週間後にドキュメントを削除する。

AI Safety Lab
Character.AIが設立を発表した独立非営利組織。次世代AI娯楽機能の安全性研究に特化し、テクノロジー企業、学術関係者、研究者、政策立案者との協力を予定している。

FTC(連邦取引委員会)
米国の消費者保護と競争法執行を担当する連邦機関。2025年9月、Character.AIを含む7社のAI企業に対し、10代のメンタルヘルスリスク評価に関する調査を開始した。

【参考リンク】

Character.AI(外部)
AIキャラクターとの対話やストーリー作成ができるプラットフォーム。2025年11月より18歳未満のユーザーはStoriesのみ利用可能

Character.AI公式ブログ – Stories発表(外部)
新機能Storiesの詳細を説明する公式発表。インタラクティブフィクション形式の体験について解説

Character.AI – 10代ユーザー安全対策の発表(外部)
2025年10月の公式声明。18歳未満のユーザーからオープンエンドチャットを削除する決定の背景と理由を説明

Character.AI – 年齢保証について(外部)
年齢保証システムの仕組みとプライバシー保護について詳述。Personaとの連携方法も解説

Persona(外部)
Identity verification and fraud prevention platform。Character.AIの年齢確認に使用されている

Federal Trade Commission (FTC)(外部)
米国連邦取引委員会の公式サイト。消費者保護とAI企業の安全性に関する調査を実施

988 Suicide & Crisis Lifeline(外部)
米国の自殺防止ホットライン。24時間365日、電話・テキスト・チャットで無料サポートを提供

【参考記事】

This mom believes Character.AI is responsible for her son’s suicide(外部)
14歳のSewell Setzer IIIの自殺事案を詳報。母親のMegan Garciaが提起した訴訟の内容とチャットボットとの会話記録を含む

More families sue Character.AI developer, alleging app played a role in teens’ suicide and suicide attempt(外部)
2025年9月の追加訴訟について報道。コロラド州の13歳Juliana Peraltaを含む3家族の事案を詳述

Character AI will offer interactive ‘Stories’ to kids instead of open-ended chat(外部)
Stories機能のローンチとチャット禁止措置について詳報。ユーザーの反応やインタラクティブフィクションの人気についても言及

Lawsuit: A chatbot hinted a kid should kill his parents over screen time limits(外部)
テキサス州の2家族による訴訟を報道。9歳と17歳のユーザーへの影響、性的コンテンツ、自傷行為の促進について詳述

Their teen sons died by suicide. Now, they want safeguards on AI(外部)
2025年9月の上院公聴会について報道。遺族の証言と規制強化を求める動き。Common Sense Mediaの調査では72%の10代がAIコンパニオンを使用

Colorado family sues AI chatbot company after daughter’s suicide(外部)
コロラド州Thorntonの13歳Juliana Peraltaの事案を詳報。母親Cynthia Montoyaのインタビューと訴訟の詳細

Character.AI Introduces “Stories” as New Interactive Fiction Format While Restricting Chatbot Access for Minors(外部)
Stories機能の技術的詳細とカリフォルニア州のAIコンパニオン規制法について解説。業界標準設定の試みとして位置づけ

【編集部後記】

AIコンパニオンが私たちの生活に浸透する中で、この技術が持つ可能性とリスクについて、改めて考える時期に来ているのかもしれません。Character.AIの決断は、単なる一企業の方針転換ではなく、AI時代における責任の在り方を問う重要な試金石となるでしょう。

特に注目すべきは、テクノロジーの進化速度と人間の心理的・社会的適応のギャップです。若者たちがデジタルネイティブとして育つ一方で、感情的な成熟や判断力の発達には時間が必要です。私たちは、便利さや面白さだけでなく、人間らしさを守るための境界線をどこに引くべきか、真剣に議論する必要があります。

みなさんは、AIとの関わり方について、どのような基準を持っていますか? そして、次世代にどのようなデジタル環境を残したいと考えますか? innovaTopia編集部も、みなさんと共にこの問いを考え続けていきたいと思います。

投稿者アバター
Satsuki
テクノロジーと民主主義、自由、人権の交差点で記事を執筆しています。 データドリブンな分析が信条。具体的な数字と事実で、技術の影響を可視化します。 しかし、データだけでは語りません。技術開発者の倫理的ジレンマ、被害者の痛み、政策決定者の責任——それぞれの立場への想像力を持ちながら、常に「人間の尊厳」を軸に据えて執筆しています。 日々勉強中です。謙虚に学び続けながら、皆さんと一緒に、テクノロジーと人間の共進化の道を探っていきたいと思います。

読み込み中…
advertisements
読み込み中…