2026年3月3日、OpenAIが米国防総省(ペンタゴン)とのAI利用契約を電撃締結し、社内外に激しい批判が噴出した。
競合のAnthropicがペンタゴンとの交渉を決裂させ「サプライチェーンリスク」に指定された直後の出来事だった。CEOのサム・アルトマンは「拙速だった」と自認し、国内監視への使用禁止を明文化した修正契約を発表。しかし100人超の社員署名、SF本社前での抗議活動、ClaudeのApp Store無料アプリ1位獲得と、波紋は広がり続けた。
誰がAIの限界を決めるのか——この問いは、一企業の炎上を超えた問題として世界に突きつけられている。
【編集部解説】
今回の騒動の本質は、「AIの安全保障利用において、誰が、どのように、その限界を決めるのか」という問いです。OpenAIとAnthropicの対立は、表面上は契約交渉の決裂に見えますが、その実態はAI企業と民主主義国家の政府との間における権力関係の再定義をめぐる衝突でした。
まず、経緯を整理しましょう。Anthropicはもともとペンタゴンと協力関係にあり、米国防総省の機密ネットワークにAIを展開した最初のAIラボでした。今回の対立は新たな契約更新の交渉で生じたものです。Anthropicが求めたのは大きく2点、「米国市民の大規模監視への使用禁止」と「人間の判断なしに攻撃できる自律型兵器システムへの使用禁止」の明文化でした。これに対してペンタゴン側は「あらゆる合法的な目的(any lawful purpose)」という広範な文言での合意を求め、交渉は決裂しました。
重要なのは、OpenAIが採った方法論の違いです。OpenAIも同じ2つの「レッドライン(絶対に越えてはならない一線)」に加え、「社会的信用スコア」のような高リスクな自動意思決定も禁止するという独自の3つ目の条件を設定しています。ただし、その担保のしかたが異なります。Anthropicが契約書への明示的な禁止条項の記載にこだわったのに対し、OpenAIは既存の米国法(修正第4条など)や国防総省の内部ポリシーを参照することで十分だという立場を取りました。
これがなぜ問題視されているのか。法律の専門家が指摘するのは、「合法的な監視」と「大規模監視」の境界があいまいだという点です。たとえば、データブローカーから購入した商業データをAIで分析することは、現行米国法上は「合法」です。しかしその規模と精度によっては、事実上の大規模監視と区別がつかない状態になりえます。MITテクノロジーレビューが「OpenAIはより現実的なアプローチを取ったが、それはペンタゴンへの要求がより緩やかであることを意味する」と評した背景には、この問題があります。
今回アルトマンが月曜日に発表した修正契約では、「米国人・米国国籍者への意図的な国内監視にAIシステムを使用しない」という文言が明示的に追加されました。ただし、自律型兵器への対応については修正後の契約に含まれておらず、法律・AIシンクタンクの研究者チャーリー・ブロックはXで「監視に関しては改善だが、自律型兵器の懸念には対応していない」と指摘しています。
長期的な視点で見ると、この出来事は今後のAI規制のあり方に深く関わってきます。企業が政府との契約において安全条項を守る手段として「技術的な制限(テクニカルセーフガード)」を採用していくのか、それとも「法的な明文化」に固執するのかという選択は、AIガバナンスの方向性を左右します。また、政府が安全条項に難色を示す企業を「サプライチェーンリスク」として排除できるという今回の前例は、他国のAI企業と各国政府の関係にも影響を与える可能性があります。
アルトマンが社員向け全社会議で語った「自分たちは正しいことをしようとしたのに、ひどく傷ついた」という言葉に注目します。AIが人類の意思決定の中枢に食い込もうとしている今、「正しいことをしようとした」という言葉だけでは、もはや十分ではない時代に入ったのかもしれません。
【用語解説】
レッドライン(red lines)
企業や組織が「絶対に越えてはならない一線」として設定する原則のこと。今回の文脈では、AIを大規模監視や自律型兵器に使用しないという、OpenAIおよびAnthropicが掲げる倫理上の絶対条件を指す。
自律型兵器システム(Autonomous Weapons Systems)
人間の直接的な判断・指示なしに、AIが標的を認識・選択し、攻撃を実行できる兵器システムのこと。現在の米国防総省のポリシーは禁止ではなく設計・試験のガイドラインを定める段階にとどまっており、その曖昧さが今回の契約交渉の焦点のひとつとなった。
サプライチェーンリスク(Supply Chain Risk)
本来は国家安全保障上の脅威となりうる外国企業・組織に対して使われる指定。今回ペンタゴンがAnthropicに対して用いたことは異例で、米国内の民間企業に適用された前例がほぼない点が法律専門家の間で問題視されている。
修正第4条(Fourth Amendment)
米国憲法修正第4条。不合理な捜索・押収から国民を守ることを定めたもので、大規模監視を制限する根拠のひとつとされる。ただし、データブローカーから購入した商業データの分析には適用されないケースもあり、今回の契約における「抜け穴」として指摘されている。
データブローカー
個人の位置情報・購買履歴・検索履歴などを収集・販売する民間事業者のこと。政府機関がこれらのデータを合法的に購入しAIで分析した場合、形式上は「大規模監視」に該当しないという法的グレーゾーンが存在する。
any lawful purpose(あらゆる合法的な目的)
ペンタゴンがAnthropicに求めた契約文言。法律の範囲内であれば用途を問わないという広範な表現で、Anthropicはこれが大規模監視や自律型兵器への使用を事実上許容すると判断し、合意を拒否した。
【参考リンク】
OpenAI 公式サイト(外部)
ChatGPTやGPT-4を開発する米国のAI企業。サム・アルトマンがCEOを務め、営利・非営利の複合構造を持つ。
Anthropic 公式サイト(外部)
元OpenAI研究者らが2021年に設立したAIセーフティ企業。AIアシスタント「Claude」を開発・提供している。
Our agreement with the Department of War|OpenAI(外部)
ペンタゴンとの契約内容についてOpenAIが3つのレッドラインと契約の詳細を説明した公式声明ページ。
【参考記事】
OpenAI’s ‘compromise’ with the Pentagon is what Anthropic feared|MIT Technology Review(外部)
OpenAIとAnthropicの契約アプローチの本質的な違いを分析。OpenAIの手法はペンタゴンへの要求がより緩やかだと指摘している。
OpenAI alters deal with Pentagon as critics sound alarm over surveillance|NBC News(外部)
修正後の契約文言を原文で掲載。AnthropicがNSAを含む情報機関の使用を拒否した経緯も詳述している。
OpenAI’s Pentagon deal raises new questions about AI and surveillance|Fortune(外部)
法律専門家への取材を含む分析。商業データのAI分析が現行法上「合法的な大規模監視」になりうると指摘している。
Sam Altman says OpenAI renegotiating ‘opportunistic and sloppy’ deal with the Pentagon|Fortune(外部)
再交渉の詳細を報道。研究者の投稿が約500,000ビューを記録した事実など、社内外の反応を詳しく伝えている。
Some OpenAI staff are fuming about its Pentagon deal|CNN(外部)
100人以上の社員が公開書簡に署名した事実と全社会議の詳細を、複数の匿名社員の証言を基に伝えている。
OpenAI reveals more details about its agreement with the Pentagon|TechCrunch(外部)
契約内容の技術的分析。3つのレッドラインの詳細とExecutive Order 12333の抜け穴問題を解説している。
【編集部後記】
「AIを誰が、どのように管理するのか」という問いは、もはや専門家だけのものではなくなりました。
今回の騒動でClaudeへの乗り換えという形で意思を示したユーザーたちのように、私たちの選択そのものが、AIの未来に影響を与える時代に入っているのかもしれません。みなさんは、どう感じましたか?







































