OpenAI内部告発問題に進展、カリフォルニア州が全米初のAI内部告発者保護法SB 53を成立

[更新]2025年10月11日22:04

OPEN AI - innovaTopia - (イノベトピア)

2025年9月29日、カリフォルニア州のGavin Newsom知事がSB53(透明性フロンティアAI法)に署名し、全米初の包括的なAI内部告発者保護制度が実現した

6月に報じたOpenAI元従業員による内部告発問題は、連邦レベルでの法案審議にとどまらず、州レベルでの法制化という具体的な成果を生み出した。しかし、Time誌が10月8日に公開した詳細分析により、Sam Altman(サム・アルトマン) CEOの謝罪の信憑性を疑わせる新事実も浮上している。

From:文献リンクHow California’s New AI Law Protects Whistleblowers (Time, October 8, 2025)

前回記事の振り返り:OpenAI内部告発問題とは

2024年6月4日、OpenAIの現職・元従業員13名が公開書簡を発表し、同社が利益追求のためにAI安全性を犠牲にしていると告発した。元研究者のDaniel Kokotajloは「OpenAIはAGI構築に熱狂的で、無謀にも最初にそこに到達しようと競争している」と述べ、業界全体の安全文化の欠如を指摘した。

最も深刻だったのは、OpenAIが従業員に課していた包括的な口封じ契約だった。これらの契約には、SEC違反の報告を免除しない非誹謗中傷条項、連邦当局への機密情報開示に事前同意を要求する条項、契約自体の機密保持要求、そして内部告発者報奨金の放棄要求が含まれていた。拒否すれば数百万ドルの既得権益を放棄させられるという条件付きで、従業員が公的利益のために声を上げることを法的に阻害する仕組みだった。

Sam Altman CEOは2024年5月19日に「このことを深く後悔している」と謝罪し、問題のある条項を将来の契約から削除すると約束した。その後、2024年7月1日に内部告発者らがSECに正式な苦情申し立てを行い、2025年5月15日にはChuck Grassley上院議員が連邦AI内部告発者保護法案を提出するに至った。あれから約4カ月、状況は劇的に動いた。

カリフォルニア州SB53法が開いた新時代

2025年9月29日、Gavin Newsom知事がSB 53に署名し、2026年1月1日から施行される全米初の包括的AI内部告発者保護法が成立した。この法律は従来の内部告発者保護法とは根本的に異なる革新的なアプローチを採用している。

従来の内部告発者保護法は主に違法行為に焦点を当てているため、まだ規制されていない多くのAIリスクには適用されなかった。しかしSB 53は、違法行為だけでなく「壊滅的リスク」への合理的な懸念を報告する従業員を保護する。壊滅的リスクとは、50人以上の死亡または10億ドル以上の経済損害を引き起こす可能性を指す。

さらに画期的なのは、従業員が確実性ではなく「合理的な理由」があれば保護対象となる点だ。これにより、Daniel Kokotajloのように数百万ドルの既得権益を放棄してまで声を上げる必要がなくなる。

2025年6月10日には、National Whistleblower Centerを含む22の団体が連邦AI内部告発者保護法案への支持を表明しており、州法と連邦法が相乗効果を生み出す可能性が高まっている。

Sam Altmanの謝罪に疑問符:流出文書が明かした新事実

Time誌が10月8日に公開した詳細分析により、Altmanの謝罪の信憑性を疑わせる重要な新事実が明らかになった。2024年5月22日に流出した内部文書によると、Altmanが「知らなかった」と主張していたNDA条項に、Altman自身と他の上級幹部の署名が明示的に記載されていた

この発見は、2024年5月19日の「深く後悔している」という謝罪が、真の無知から来たものではなかった可能性を示唆している。Daniel Kokotajloは「OpenAIは言葉では安全を約束するが、行動が伴わない」と指摘しており、Altmanの対応もその一例と見ることができる。

実際、OpenAIが2023年に約束した計算リソースの20%を安全研究チームに割り当てるという公約も、2025年現在でも履行されていないことが報告されている。2024年にはJan Leikeが退職時に「安全文化とプロセスが製品開発の後回しになっている」と指摘したが、この構造的問題は依然として解決されていない。

内部告発者の懸念が現実だった証拠

内部告発者らの警告が単なる誇張ではなかったことを示す新たな証拠が、10月10日に明らかになった。NBC Newsは、OpenAIのChatGPTの安全対策を簡単に回避できることを実証した。

OpenAIが「最も厳格な安全プログラム」を通過したと主張するモデルでも、生物兵器や化学兵器の製造方法など、危険な情報を引き出すことに成功した。研究者たちは、単純なプロンプト操作により、OpenAIの安全フィルターを繰り返し回避できることを示した。

この発見は、Daniel Kokotajloらが2024年6月に「OpenAIが効果的な監視を避ける強い財政的インセンティブを持っている」と指摘した懸念が、現実だったことを裏付けている。OpenAIは10月6日に「悪意ある使用の阻止」に関するレポートを発表したが、NBC Newsの実証実験はその直後に行われた。

一方、OpenAIは10月7日に中国政府系組織との関連が疑われる複数のChatGPTアカウントを、ソーシャルメディア監視提案を求めたとして禁止措置を取るなど、一部の安全対策は実施している。しかし、根本的な安全文化の問題は解決されていない。

【編集部解説】

今回の一連の動きは、AI産業における透明性と説明責任をめぐる転換点として位置づけられます。

SB53が切り開いた新たな地平

カリフォルニア州SB 53法の最大の革新性は、「違法性」ではなく「リスク」を保護の基準にした点にあります。現代のAI技術は規制の整備よりも遥かに速く進化しており、違法性を基準とする従来の内部告発者保護法では、技術が引き起こす潜在的な壊滅的リスクに対応できませんでした。

前回記事で指摘した通り、現行の内部告発者保護法は主に違法行為に焦点を当てているため、まだ規制されていない多くのAIリスクには適用されませんでした。SB 53は「50人以上の死亡または10億ドル以上の損害」という具体的な壊滅的リスクの定義を導入し、さらに「合理的な根拠」があれば保護されるという基準を設定しました。

これにより、Daniel Kokotajloのように数百万ドルの既得権益を放棄する覚悟がなくても、安全性への懸念を報告できる環境が整います。内部告発者の弁護士Stephen M. Kohnが述べているように、これはAI開発を停止や破壊することではなく、技術の安全性を確保することです。

Sam Altmanの「謝罪」が意味するもの

Time誌が暴いた流出文書の内容は、OpenAIのガバナンス問題の深刻さを浮き彫りにしています。Altman自身と上級幹部の署名が記載されたNDA条項について「知らなかった」と主張することは、組織のトップとして不自然です。

より深刻なのは、2024年5月19日の謝罪後も、OpenAIの安全文化が実質的に改善されていない点です。2023年に約束した計算リソースの20%を安全研究に割り当てるという公約は履行されておらず、Jan Leikeが指摘した「安全が製品開発の後回しになっている」という問題も継続しています。

NBC Newsの実証実験は、この構造的問題の帰結を示しています。「最も厳格な安全プログラム」を通過したとされるモデルでも、簡単に安全フィルターを回避できるという事実は、OpenAIの安全への取り組みが表面的なものに留まっていることを示唆しています。

連邦法案との相乗効果と全米への波及

カリフォルニア州法が全米のモデルとなる可能性は高いと考えられます。2025年6月10日に22の団体が支持を表明した連邦AI内部告発者保護法案は、現在も議会で審議中です。

州法が先行して成立したことで、連邦法案の必要性がより明確になりました。Chuck Grassley上院議員が提出した法案は、既存のAI法と内部告発者保護法を統合し、従業員のコミュニケーションを保護することを目的としています。

カリフォルニア州はシリコンバレーを擁し、OpenAI、Google、Metaなど主要AI企業の本拠地です。この地理的重要性により、SB 53は事実上、米国のAI産業全体に影響を与える可能性があります。他州がカリフォルニア州のモデルを採用すれば、連邦法がなくても実質的な全米規模の内部告発者保護制度が構築される可能性があります。

透明性なくして安全なAGIは構築できない

内部告発者のStephen M. Kohnが述べているように、「暗闇の中で安全なAGIを構築することはできません」。透明性、開放性、誠実な議論の文化が必要です。

Sam Altmanは2025年1月のブログ投稿で「AGI(汎用人工知能)の構築方法を知っている」と宣言し、さらに「超知能(superintelligence)」の実現に焦点を移すと述べました。しかし、安全性への取り組みが不十分なまま、このような野心的な目標を追求することは、Daniel Kokotajloが警告した「無謀な競争」そのものです。

SB 53法の成立は、この無謀な競争に対する社会からの明確な「ノー」の表明と見ることができます。AI企業は一般的に、従業員に広範な秘密保持契約の署名を求めており、これが潜在的な内部告発者に対する強力な抑止力となっていました。この「萎縮効果」は、AI業界全体で深刻な安全性懸念を提起する文化を阻害してきました。

カリフォルニア州法と連邦法案の動きは、この萎縮効果を打破し、世界を変える可能性のある技術開発における透明性と説明責任を確保する重要な一歩です。

【用語解説】

AGI(汎用人工知能)

人間の認知能力と同等またはそれを上回る人工知能。特定のタスクに限定されず、あらゆる認知的作業において人間レベルの性能を発揮する。現在のAIは特定分野に特化しているが、AGIは人間のように幅広い分野で学習・応用が可能な技術である。

SB 53(透明性フロンティアAI法)

2025年9月29日にカリフォルニア州で成立し、2026年1月1日から施行予定の全米初の包括的AI内部告発者保護法。違法行為だけでなく壊滅的リスクへの合理的な懸念を報告する従業員を保護する。

壊滅的リスク(Catastrophic Risk)

SB 53において、50人以上の死亡または10億ドル以上の経済損害を引き起こす可能性と定義されている。従来の内部告発者保護法が違法行為に焦点を当てていたのに対し、SB 53はこの壊滅的リスクへの懸念を保護対象とする点で革新的である。

合理的根拠(Reasonable Basis)

SB 53における内部告発者保護の基準。従業員が確実性ではなく合理的な懸念を持つだけで保護される。これにより、既得権益を放棄する覚悟がなくても安全性への懸念を報告できる環境が整う。

AI内部告発者保護法案

2025年5月15日にChuck Grassley上院議員が連邦議会に提出した法案。既存のAI法と内部告発者保護法を統合し、AI従業員が安全性懸念を報告する際の法的保護を強化することを目的としている。

非誹謗中傷条項

従業員が雇用主を公的に批判することを禁止する契約条項。OpenAIの場合、SEC違反の報告さえも免除しない包括的な条項が含まれており、連邦内部告発者保護法に違反していると指摘されている。

SEC Rule 21F-17(a)

証券取引委員会規則で、内部告発者の権利を保護し、雇用主が内部告発を阻害する契約条項を禁止している。OpenAIの秘密保持契約がこの規則に違反していると告発されている。

【参考リンク】

California Governor’s Office – SB 53署名発表(外部)
Gavin Newsom州知事による透明性フロンティアAI法の署名発表。2025年9月29日に署名され2026年1月1日から施行される全米初の包括的AI内部告発者保護法の公式発表

National Whistleblower Center – AI Whistleblower Protection Act(外部)
内部告発者の権利保護を専門とする非営利組織。連邦AI内部告発者保護法案の成立を推進し2025年6月10日に22団体からの支持表明を獲得

NBC News – ChatGPT safety systems can be bypassed(外部)
2025年10月10日公開の安全性実証実験報道。OpenAIの最も厳格な安全プログラムを通過したモデルでも生物兵器や化学兵器の製造方法を引き出せることを実証

Congress.gov – AI Whistleblower Protection Act (S.1792)(外部)
Chuck Grassley上院議員が2025年5月15日に提出した連邦AI内部告発者保護法案の公式ページ。法案の詳細と審議状況を確認できる

【参考記事】

OpenAI Insiders Warn of a ‘Reckless’ Race for Dominance(外部)
2024年6月4日のニューヨーク・タイムズ記事。OpenAIの現職・元従業員13名が同社の無謀で秘密主義的な企業文化に警鐘を鳴らした最初の詳細報道

Support Grows for AI Whistleblower Protection Act(外部)
2025年6月10日の上院司法委員会発表。National Whistleblower Centerを含む22の団体が連邦AI内部告発者保護法案への支持を表明した内容をまとめた記事

【編集部後記】

前回記事では「技術革新のスピードと安全性確保のバランス」について問いかけましたが、カリフォルニア州SB 53法の成立は、この問いに対する一つの具体的な答えと言えるでしょう。

注目すべきは、この法律が「違法性」ではなく「リスク」を基準にした点です。AI技術は規制整備よりも遥かに速く進化しており、違法性を待っていては手遅れになる可能性があります。合理的な懸念の段階で声を上げられる環境を整備することは、まさにAI時代に必要な発想の転換です。

一方で、Time誌が明らかにしたSam Altmanの署名問題は、企業のトップが本当に変わる意志を持っているのか、それとも世論対策に過ぎないのかという疑問を投げかけます。NBC Newsの安全性実証実験も、言葉と行動のギャップを示す重要な証拠です。

読者の皆さんは、カリフォルニア州の取り組みが全米、そして世界のAI規制のモデルになると思いますか?また、OpenAIのような企業が本当に安全性を優先する文化を築くには、法規制だけで十分でしょうか、それとも他の仕組みも必要でしょうか?ぜひ、皆さんのお考えをお聞かせください。

【編集部追記】
SB 53の表記ゆれに関しまして。
本来、Senate Bill 53, the Transparency in Frontier Artificial Intelligence Act (TFAIA)は通称「SB 53」というようにSBと53の間に半角スペースが入ります。
ところが、Google翻訳やDeepLを通すと「SB53」となり、Google検索においてもそちらが優先されるようです。このため、冒頭文および小見出しのみ「SB53」に書き換えております。

投稿者アバター
TaTsu
『デジタルの窓口』代表。名前の通り、テクノロジーに関するあらゆる相談の”最初の窓口”になることが私の役割です。未来技術がもたらす「期待」と、情報セキュリティという「不安」の両方に寄り添い、誰もが安心して新しい一歩を踏み出せるような道しるべを発信します。 ブロックチェーンやスペーステクノロジーといったワクワクする未来の話から、サイバー攻撃から身を守る実践的な知識まで、幅広くカバー。ハイブリッド異業種交流会『クロストーク』のファウンダーとしての顔も持つ。未来を語り合う場を創っていきたいです。

読み込み中…
advertisements
読み込み中…