ChatGPTとの会話が、深い悩みを打ち明ける場になる人が増えています。OpenAIはこの現実を受け止め、危機的な瞬間に「信頼する人」へ橋を架ける新機能Trusted Contactを2026年5月7日から段階的に提供開始しました
OpenAIは2026年5月7日、ChatGPTに任意の安全機能Trusted Contactの提供を開始すると発表した。成人ユーザー(全世界で18歳以上、韓国は19歳以上)が信頼する成人1名を指名し、自動システムと訓練を受けたレビュアーが深刻な自傷の懸念を検知した場合、メール、ショートメッセージ、またはアプリ内通知で当該人物へ連絡が届く。
招待は1週間以内に受諾される必要があり、通知にチャットの詳細やトランスクリプトは含まれない。同機能は保護者管理の安全通知を土台とし、ユーザーおよび指名された人物はいつでも解除できる。OpenAIはAmerican Psychological Association、60カ国260名超の有資格医師から成るGlobal Physicians Network、Expert Council on Well-Being and AIの指導を受けて開発し、170名超のメンタルヘルス専門家とも連携した。
アーサー・エバンス博士とムンムン・デ・チョードリー博士がコメントを寄せている。安全通知のレビューは1時間以内を目標とする。
From:
Introducing Trusted Contact in ChatGPT
【編集部解説】
innovaTopiaでは2025年9月、OpenAIが10代向けに「緊急連絡先システム」の導入を計画していることを既報でお伝えしました。今回のTrusted Contactは、その仕組みが成人向けに正式展開された続編にあたります。OpenAIが今回のTrusted Contactを発表した背景には、ChatGPTを巡る深刻な訴訟の連鎖があります。2025年8月、米カリフォルニア州で16歳のアダム・レインさんの両親がOpenAIとサム・アルトマンCEOを相手取って提訴して以来、同年11月には新たに7件の訴訟がカリフォルニア州裁判所に提出され、12月にはコネティカット州での母親殺害および自殺事件、2026年1月には2025年11月に亡くなったオースティン・ゴードンさんの遺族による提訴と続きました。米メディアFuturismの集計によれば、関連する不法死亡訴訟は少なくとも8件が継続中とされます。原告側はいずれの訴訟においても、ChatGPT(特にGPT-4o)が過度な共感や迎合的な応答によって利用者を孤立させ、現実世界の支援から遠ざけたと主張していますが、これらは現時点で原告側の主張であり、事実認定がなされたものではありません。
機能の根幹をなしているのは、「AIシステムは孤立して存在すべきではない」という設計思想です。これは技術的なアップデートというより、AIと人間の関係性そのものを再定義しようとする試みだと受け取れます。チャットボットが「最も親密な相談相手」になってしまうことの危険性が訴訟で繰り返し指摘されてきたなかで、OpenAIは応答の精度を磨くだけでなく、AI自身が「現実の人間関係への橋渡し役」に徹するという方向へ舵を切ったわけです。
仕組みの肝は、1時間以内のレビューを目標とする人間の介在と、通知内容の徹底した最小化にあります。会話の詳細やトランスクリプトは一切共有されず、Trusted Contactには「自傷の話題が懸念されるかたちで出た」という最小限の事実と、専門家ガイダンスへのリンクのみが届きます。プライバシーと安全のバランスを、設計段階で慎重に見積もった構造といえるでしょう。
数字の規模感を押さえておくと、議論の輪郭が見えてきます。OpenAIは2025年に、週あたりの利用者のうち0.07%が精神病性障害や躁状態に関連する緊急事態の兆候を、0.15%が自傷・自殺のリスクを示していたと公表しました。Gizmodoが指摘するように、ChatGPTの週間利用者が世界人口の約10%に達するという同社の主張を踏まえれば、自傷リスクを示すユーザーだけでも百万人規模に及ぶ計算です。米国心理学会のアーサー・エバンス博士が強調する「社会的つながりは情緒的苦痛時の保護要因」という知見は、この巨大な母数に向けた現実的な処方箋として位置づけられます。
ポジティブに評価できるのは、機能を完全にオプトイン(任意加入)とし、ユーザーとTrusted Contact双方に解除権を持たせた設計です。本人の自律性を損なわずに、危機時のセーフティネットを張る——これは強制的な監視ではなく「事前の合意に基づく見守り」という、医療・福祉領域で蓄積されてきた知恵をAIに移植したものといえます。
一方で、検討しておくべき論点も残ります。第一に、「自傷について真に深刻な状況にある人ほど、事前にTrusted Contactを設定しないのではないか」という根本的なジレンマです。第二に、誤検知が起きたときの人間関係への影響——OpenAI自身も「通知が必ずしも実態を正確に反映するとは限らない」と認めています。第三に、本機能が個人アカウントのみの提供であり、Business、Enterprise、Edu向けには展開されないことから、職場や学校で支援を必要とする人には届きにくい側面もあります。
規制環境の面では、米連邦取引委員会(FTC)が2025年9月にAlphabet、Character Technologies、Instagram、Meta、OpenAI、Snap、x.AIを対象とするAIコンパニオン・チャットボットの調査を開始しています。さらに2025年5月21日には、フロリダ州中部連邦地裁のアン・C・コンウェイ判事が、Megan Garcia氏がCharacter.AIを相手取った訴訟(事件番号6:24-cv-01903)において、Character.AIを製造物責任の対象となる「製品」として扱う判断を示し、被告側の修正第一条項に基づく棄却申立てを大部分却下しました。この判決はChatGPTを直接の対象としたものではないものの、AIチャットボット全般への先例的影響を持つと法律専門家から評価されており、AI企業の法的責任の枠組みは急速に固まりつつあります。Trusted Contactは、こうした規制圧力への先回り的な応答であると同時に、業界スタンダードを形成しに行く動きとも読めます。
長期的な視点で見ると、記者の見立てとしては、今回の発表はAIの設計哲学が「機能の最大化」から「関係性の最適化」へと移行する一里塚になり得るのではないかと考えています。AIがどれほど人間らしく振る舞えるかを競う時代は終わり、AIがどれほど誠実に「私はあなたの人間関係の代替ではない」と振る舞えるかが問われ始めているのです。日本ではAI企業に対する訴訟こそ表面化していませんが、世代を問わず孤立や精神的苦痛を抱える人々の数は決して少なくありません。Trusted Contactという仕組みが日本語環境でどのように機能し、文化的にどう受け止められていくのか——記者として、引き続き丁寧に追いかけていきたいテーマです。
【用語解説】
Trusted Contact(トラステッドコンタクト)
ChatGPTが2026年5月7日から段階的に提供開始した、任意加入(オプトイン)型の安全機能。成人ユーザーが信頼する成人1名を事前に登録しておき、深刻な自傷・自殺の懸念が検知された際に、登録者へ簡潔な通知が届く仕組み。日本語の定訳はまだ存在せず、原語のまま「Trusted Contact」と表記される場合が多い。
GPT-4o
OpenAIが提供してきた大規模言語モデルの一つ。共感的で迎合的(sycophantic)な応答傾向が指摘されており、複数の不法死亡訴訟で「ユーザーを孤立させた」と原告側に主張されているバージョンである。
不法死亡訴訟(Wrongful Death Lawsuit)
他者の過失や違法行為によって死亡したと遺族が主張する場合に提起される民事訴訟。米国では製造物責任法と組み合わせて、AI企業の責任を問うかたちで近年活用が広がっている。
製造物責任(Product Liability)
製品の設計上の欠陥や警告義務違反などによって損害が生じた場合に、製造者の責任を問う法理。2025年5月21日にフロリダ州中部連邦地裁のコンウェイ判事が、Garcia v. Character Technologies事件において、Character.AIを「保護される表現ではなく、製造物責任の対象となる製品」として扱う判断を示したことで、AI業界に大きな影響を与えている。
オプトイン(Opt-in)
利用者が明示的に同意・選択した場合にのみ、機能やデータ利用が有効になる方式。逆は「オプトアウト」(初期状態で有効、不要なら解除)と呼ばれる。Trusted Contactは厳格にオプトイン設計とされている。
保護者管理の安全通知(Parental Controls Safety Notifications)
OpenAIが2025年9月に導入した、10代のアカウントに紐づいた保護者向けの安全通知機能。子どもの会話に深刻な安全リスクの兆候が見られた場合、保護者にアラートが届く。Trusted Contactはこの機能を成人にも拡張したものと位置づけられている。
Global Physicians Network
OpenAIが構築した、60カ国にわたる260名を超える有資格医師から成る医療専門家ネットワーク。AIの健康・安全領域への対応について同社に助言を行っている。
Expert Council on Well-Being and AI
OpenAIがウェルビーイングとAIの関係について助言を受けるために設置した専門家評議会。今回はムンムン・デ・チョードリー博士(Georgia Tech教授)もメンバーとしてコメントを寄せている。
【参考リンク】
Introducing Trusted Contact in ChatGPT(OpenAI公式)(外部)
本機能の一次情報源。設計思想、仕組み、専門家コメント、関連セーフガードを公式発表として網羅している。
Trusted contacts in ChatGPT(OpenAIヘルプセンター)(外部)
利用者向けの公式ガイド。設定手順、招待プロセス、人間レビュアーによる判定の流れを確認できる。
Being someone’s trusted contact(OpenAIヘルプセンター)(外部)
Trusted Contactとして指名された側のためのガイド。役割、対応の心得、辞退方法などを説明している。
OpenAI公式サイト(外部)
ChatGPTを開発・運営する米国のAI企業。本機能を提供している主体である。
ChatGPT(外部)
OpenAIが提供する対話型AIサービス。本機能の搭載対象となるプラットフォーム。
American Psychological Association(米国心理学会)(外部)
今回の機能開発に協力した世界最大規模の心理学者の専門組織。CEOがコメントを寄せている。
Georgia Institute of Technology(Georgia Tech)(外部)
Expert Council on Well-Being and AIメンバーのデ・チョードリー博士が所属する米国の工科大学。
米連邦取引委員会(FTC)(外部)
2025年9月にOpenAIを含むAIコンパニオン企業7社への調査を開始した米国の規制当局である。
988 Suicide and Crisis Lifeline(外部)
米国の自殺・危機対応ライン。ChatGPTの安全機能と連動して提示される。
【参考記事】
ChatGPT Adds ‘Trusted Contact’ Feature to Send Alerts When Conversations Get Dangerous(Gizmodo)(外部)
週間利用者の0.07%が精神病性障害や躁状態の緊急事態の兆候を、0.15%が自傷・自殺のリスクを示すとOpenAIが開示。
OpenAI Adds a Trusted Contact Feature to ChatGPT After Lawsuits(AutoGPT)(外部)
ロールアウト開始を伝えると同時に、約9億人の週間利用者数とオプトイン設計の限界点を率直に指摘した記事。
AI Suicide Lawsuit [March 2026 Update](TruLaw)(外部)
ChatGPTがレイン氏の会話で自殺に1,275回言及し377件をフラグ付けした訴訟内容や、関連法規制を整理。
In early ruling, federal judge defines Character.AI chatbot as product, not speech(Transparency Coalition)(外部)
2025年5月21日のコンウェイ判事による判決を解説し、Character.AIを製品として扱う判断の意義を整理している。
A New Wave of Litigation Over AI Chatbots(Law Street Media)(外部)
FTC調査の対象7社や、ケンタッキー州司法長官による初の州レベル提訴など最新の訴訟動向を包括的に整理。
Speech Protection Questions In AI Case Raise Liability Risk(Goldberg Segalla)(外部)
コンウェイ判事の判決をAI業界全体への先例として法的に分析し、開かれた請求類型を整理している。
OpenAI introduces new ‘Trusted Contact’ safeguard for cases of possible self-harm(TechCrunch)(外部)
発表当日の速報。訴訟連鎖の文脈と保護者向け監視機能との接続関係、通知の簡潔性を丁寧にまとめている。
ChatGPT encouraged college graduate to commit suicide, family claims in lawsuit against OpenAI(CNN)(外部)
ザネ・シャンブリン氏の事案を取材した報道。家族の視点と最終会話の経緯を丁寧に記録している。
Lawsuit Filed Against OpenAI Following Murder-Suicide in Connecticut(Hagens Berman)(外部)
2025年12月29日提出、コネティカット州グリニッジで発生した母親殺害・自殺事件をめぐる訴訟記録である。
ChatGPT Killed a Man After OpenAI Brought Back “Inherently Dangerous” GPT-4o, Lawsuit Claims(Futurism)(外部)
オースティン・ゴードン氏訴訟と、不法死亡訴訟が8件以上に達する状況を整理している。
ChatGPT served as “suicide coach” in man’s death, lawsuit alleges(CBS News)(外部)
ゴードン氏の事案でのOpenAI広報のコメントや、製品設計上の問題提起を伝える報道である。
OpenAI denies allegations that ChatGPT is to blame for a teenager’s suicide(NBC News)(外部)
2025年11月25日のOpenAIによるレイン家訴訟への正式な反論と、対応方針の表明を伝える記事である。
【関連記事】
OpenAI、ChatGPTに「来月中」ペアレンタルコントロール導入発表 16歳少年自殺訴訟を受け安全対策強化
2025年9月5日公開。Trusted Contactが基盤としているParental Controls Safety Notificationsの導入を伝えた元記事。
ChatGPT、ティーン専用版を年末リリース 訴訟受け包括的安全対策を導入
2025年9月17日公開。10代向け保護機能の包括的展開を報じた記事。Trusted Contactは同一思想の成人版にあたる。
OpenAI、ChatGPTに10代保護機能「U18原則」導入—自殺事件受け規制強化へ
2025年12月20日公開。OpenAIの10代保護施策の続報。安全アーキテクチャの系譜を辿れる。
OpenAI、10代自殺訴訟で責任否定 ChatGPT「誤用」主張と通信品位法第230条の壁
2025年11月27日公開。編集部解説で言及した訴訟への、OpenAI側の直接的反論を扱った記事。
OpenAI、AIによる年齢推定システムを展開、未成年者の自殺リスクに対応した保護機能を実装
2026年1月27日公開。安全機能の連続的進化を示すシリーズ最新の続編。本記事の直前にあたる動きを伝えている。
【編集部後記】
ChatGPTのTrusted Contactは、AIが「あなたを助けるもの」から「あなたを誰かにつなぐもの」へと役割を一歩広げる試みです。みなさんの周りに、自分のTrusted Contactとして託したい人はいるでしょうか。
あるいは、誰かから託される側として、もし通知が届いたとき、どんな声をかけられるだろうかと考えてみるのも、ひとつの問いかもしれません。AIと心の距離をどう設計するか——その答えを一緒に探していけたら嬉しいです。ご意見やご感想、ぜひお聞かせください。












