AI企業Anthropicは2月14日、自社のAIシステムClaudeを特定の作戦で使用することについて米国国防総省と議論していないと表明した。Reutersが報じた。一方、Axiosは同日、ペンタゴンがAnthropicとの関係終了を検討していると報じた。米軍は4つの主要AIラボに対し、兵器開発、諜報活動、戦場作戦を含む「すべての合法的な目的」でのツール使用許可を要求したが、Anthropicは同意せず、数カ月の交渉が難航している。
Anthropicはアメリカ国民への大規模監視と完全自律型兵器の2領域を禁止と主張している。The Wall Street Journalは、米軍がベネズエラ前大統領ニコラス・マドゥロの捕獲作戦でClaudeを使用したと報じた。ClaudeはPalantir Technologiesとの協力で展開された。
1月初旬、米軍はカラカスでマドゥロと妻を捕獲し、ニューヨークへ空輸した。一部の政権当局者は最大2億ドルの契約キャンセルを検討している。
From:
‘No discussions for specific operations’: Anthropic denies Claude’s use by US military
【編集部解説】
今回のAnthropicとペンタゴンの対立は、AI技術の軍事利用における倫理的境界線をめぐる重要な転換点を示しています。特に注目すべきは、この契約が2025年7月に締結されたばかりの2億ドル規模の2年間プロトタイプ契約であり、わずか半年余りで破談の危機に直面している点です。
AnthropicはGoogle、OpenAI、xAIと並んで国防総省から最大2億ドルの契約を獲得した4社のうちの1社であり、その中でも最も厳格な使用制限を主張しています。同社が設定した「アメリカ国民への大規模監視」と「完全自律型兵器」という2つの禁止領域は、一見明確に見えますが、実際には定義の曖昧さが問題となっています。
完全自律型兵器とは、起動後に人間の介入なしに標的を選択し攻撃できるシステムを指します。しかし、どの程度の人間の監督があれば「完全自律」でなくなるのか、その境界は技術的にも法的にも明確ではありません。同様に、大規模監視の定義も、データ収集の規模や対象によって解釈が分かれる余地があります。
ペンタゴン側の不満は理解できます。軍事作戦は刻々と変化する状況下で迅速な判断を求められるため、個別の使用事例ごとにAI企業と交渉することは現実的ではありません。また、作戦中にAIシステムが突然機能をブロックするリスクは、国家安全保障上の重大な懸念となります。
興味深いのは、Claudeが既にPalantir Technologiesとの提携を通じて機密ネットワーク上に統合されており、防衛・情報機関のミッションワークフローで実際に使用されていた点です。Palantirは2024年11月にClaudeモデルを機密環境に導入した最初の業界パートナーとなり、Claude 3および3.5ファミリーのモデルを国防総省のImpact Level 6(IL6)認証環境で運用していました。
マドゥロ捕獲作戦での使用疑惑は、この技術統合の実態を浮き彫りにしました。Anthropicは「特定作戦について議論していない」と否定していますが、これはPalantirを介した間接的な使用の可能性を排除するものではありません。同社の使用ポリシーは暴力の助長や兵器開発を明示的に禁止していますが、爆撃を含む作戦でClaudeが使用されたとすれば、ポリシー違反の可能性が生じます。
この対立が示すより大きな問題は、AI企業が自社技術の使用方法をどこまでコントロールできるか、そしてすべきかという点です。民間企業が国家安全保障上の判断に事実上の拒否権を持つことは、新たな権力構造を生み出す可能性があります。
一方で、AI技術の無制限な軍事利用は、予期せぬ結果や倫理的問題を引き起こす恐れがあります。Anthropicのような企業が倫理的ガードレールを主張することは、技術の責任ある発展にとって重要な役割を果たしているとも言えるでしょう。
長期的には、この事例がAI軍事利用における国際的な規範形成に影響を与える可能性があります。米国がどのような基準を設定するかは、他国のAI軍事政策にも波及効果をもたらすはずです。
【用語解説】
大規模監視(Mass Surveillance)
多数の市民に対して行われる組織的な監視活動を指す。通信データ、位置情報、オンライン活動などを広範囲に収集・分析する行為であり、プライバシー権との緊張関係が常に議論される。AIの発達により、膨大なデータを自動的に処理・分析できるようになったことで、監視の規模と精度が飛躍的に向上している。
完全自律型兵器(Fully Autonomous Weapons)
起動後に人間の介入なしに標的を選択し攻撃を実行できる兵器システム。「キラーロボット」とも呼ばれる。人間が最終的な攻撃判断を行う半自律型兵器とは異なり、完全自律型は機械が独自に生死に関わる決定を下すため、倫理的・法的に大きな論争を呼んでいる。
Impact Level 6(IL6)
米国国防総省が定めるセキュリティ認証レベルの一つ。機密情報(Classified Information)を扱うことができる環境基準であり、最高レベルのセキュリティ対策が求められる。IL6認証を取得したシステムは、国家安全保障に関わる機密データを処理できる。
【参考リンク】
Anthropic(外部)
Claude AIを開発する米国のAI安全性研究企業。OpenAIの元メンバーが2021年に設立。
Palantir Technologies(外部)
データ分析プラットフォームを提供する米国企業。政府機関や国防総省向けソリューションを提供。
OpenAI(外部)
ChatGPTを開発した米国のAI研究機関。2015年設立。ペンタゴン契約獲得4社の一つ。
xAI(外部)
イーロン・マスクが2023年に設立したAI企業。Grokを開発し、ペンタゴン契約を獲得。
Campaign to Stop Killer Robots(外部)
完全自律型兵器の開発・使用禁止を目指す国際的NGO連合。国際規制枠組み構築を推進。
【参考記事】
Anthropic awarded $200M DOD agreement for AI capabilities(外部)
Anthropicが2025年7月に国防総省から2億ドルの契約を獲得したことを発表。
Pentagon Taps Anthropic To Develop AI Under $200M Agreement(外部)
ペンタゴンがAnthropic、Google、OpenAI、xAIの4社と最大2億ドル契約締結。
Anthropic, Google, OpenAI, xAI granted up to $200 million from DoD(外部)
4つの主要AI企業が国防総省から最大2億ドルの契約を獲得した経緯を詳述。
Claude enlists to help US defense, intelligence AI efforts(外部)
2024年11月にPalantirがClaudeを機密ネットワークに統合した経緯を報告。
Palantir Teams with Anthropic to Arm U.S. Defense with Cutting-Edge AI(外部)
Palantirとの提携によりClaudeが米国防衛・情報機関ワークフローに統合された。
The weaponization of artificial intelligence: What the public thinks(外部)
AI兵器化に関する市民認識を調査した学術論文。完全自律型兵器の倫理的問題を分析。
【編集部後記】
AI技術が軍事領域に進出する今、私たちは大きな問いに直面しています。技術の進歩を止めることはできませんが、その使われ方を問い続けることはできるはずです。Anthropicとペンタゴンの対立は、単なる契約交渉の枠を超えて、「誰がAIの使用方法を決めるべきか」という本質的な問題を突きつけています。
皆さんは、AI企業が倫理的理由で軍事利用を制限することについて、どう感じますか?それとも国家安全保障を優先すべきでしょうか?この議論に正解はありませんが、無関心でいることはできない時代に私たちは生きています。






































