AnthropicとOpenAIが2026年3月17日、化学・生物兵器分野の専門家の採用活動を開始したことが明らかになった。
Anthropicは「化学兵器および大型爆発物担当ポリシーマネージャー」職を同月10日前後にLinkedInで公開し、年収24万5,000ドルから28万5,000ドルを提示している。応募要件は化学兵器に関する5年以上の経験で、大型爆発物防衛の経験やダーティボムの知識もあれば望ましいとされる。
OpenAIはPreparednessチームにフロンティア生物・化学リスク研究者を募集しており、年収は最大45万5,000ドルだ。また、Anthropicは米国戦争省を相手取り法的措置を起こしている。同省はAnthropicを「サプライチェーンリスク」に指定しており、その背景にはAnthropicが自社AIを完全自律型兵器と米国市民への大規模監視に使用させないと主張したことがある。
OpenAIのサム・アルトマンはNATOとの取引も模索している。
From:
Anthropic and OpenAI place job ads for chemical weapons experts (must have five years experience)
【編集部解説】
AnthropicとOpenAIが、化学・生物兵器の専門家を採用しようとしている——このニュースを一読して、奇妙さを感じた方は鋭いと思います。「AIの危険性を誰より声高に警告してきた企業が、なぜ今、大量破壊兵器の専門家を必要としているのか?」。この問いこそが、この記事を読み解く核心です。
その答えは、AIセキュリティにおける逆説的な構造にあります。AIモデルは、インターネット上に存在する膨大な情報で学習しています。化学兵器の合成経路や爆発物の製造方法に関する技術文献も、その中に含まれます。モデルが「それを教えてはいけない」と判断するためには、逆説的に、その知識が何を意味するかを「理解している」人間が内側から評価しなければなりません。Anthropicが採用しようとしているのは、まさにその「知っているからこそ防げる」専門家です。
両社のポジションには注目すべき差異があります。Anthropicが求めているのは「ポリシーマネージャー」、つまりAIシステムのガードレール設計と政策立案を担う人材で、博士号(Ph.D)が必須要件とされています。一方OpenAIのPreparednessチームが求めているのは「研究者」であり、脅威モデルの構築や能力評価(eval)の設計まで担うより技術的な役割です。
こうした状況を踏まえると、今回の「武器専門家の採用」は単なる安全対策ではなく、政治的なメッセージとしての側面も帯びてきます。「自社AIが悪用されないよう、内部から専門家を育てる」という姿勢の可視化は、規制当局や政府との交渉において一定の説得力を持ちます。
化学兵器には CWC、生物兵器には BWC という国際条約が既に存在し、またAI一般には欧州評議会のAI枠組条約があります。フロンティアAIの能力が急速に高まる中、「守るためにどこまで知るべきか」という問いは、今後AIガバナンスの中心的議題になっていくでしょう。
【用語解説】
ダーティボム(汚い爆弾)
通常の爆発物に放射性物質を組み合わせた兵器。核爆弾のような核分裂反応は起こさないが、爆発によって放射性物質を広範囲に拡散させ、広域を汚染することを目的とする。製造に核兵器ほどの高度な技術を必要としないため、テロリストによる使用が懸念されている。
レッドチーミング
システムやAIモデルの脆弱性を意図的に攻撃・悪用しようとする視点で検証する手法。防衛側(ブルーチーム)に対し、攻撃側の役割を担うチームを「レッドチーム」と呼ぶ。AIの安全性評価において、モデルが有害な情報を出力しないかを実際に試みることで、弱点を事前に発見する目的で使われる。
ガードレール
AIモデルが有害・危険・不適切なコンテンツを生成・提供しないよう設けられた制御の仕組みや規則の総称。人間による事後確認、フィルタリング、訓練段階での制約などが含まれる。
フロンティアAI
現時点で人類が到達している最高水準の能力を持つAIモデルを指す。GPT-4やClaudeのような大規模言語モデル(LLM)がその代表例。その能力の高さゆえに、悪用された場合のリスクも大きいとされる。
AIガバナンス
AIの開発・運用・利用に関するルール、規制、倫理指針、管理体制の総称。民間企業の自主規制から国際条約まで幅広い概念を含む。現状、特に軍事・安全保障分野でのAI利用に関する国際的な枠組みは未整備のままである。
eval(能力評価・評価テスト)
AIモデルの特定の能力や振る舞いを測定・評価するためのテストセット。安全性の観点では、モデルが危険な情報をどの程度出力するかを定量的に測るために設計される。OpenAIのPreparednessチームはこのevalの設計・維持が主要業務の一つとなっている。
【参考リンク】
Anthropic 公式サイト(外部)
Claudeを開発する米国のAI安全性研究企業。2021年設立。AIの安全性を中核に据えた大規模言語モデルの研究・開発・商業展開を行う。
OpenAI 公式サイト(外部)
ChatGPTやGPTシリーズを開発する米国のAI研究企業。サム・アルトマンがCEO。米国防総省との契約を通じ政府・軍事分野へのAI展開を進めている。
【参考記事】
Anthropic sues Defense Department over supply-chain risk designation(外部)
Anthropicが2か所の連邦裁判所に提出した訴状の詳細と法的根拠、2つのレッドラインの内容を詳報するTechCrunch記事。
Anthropic seeks weapons expert amid growing AI safety concerns(外部)
Anthropicの化学兵器専門家求人を詳細に分析。博士号(Ph.D)必須要件、給与レンジ、専門家コメントを掲載する記事。
Amid growing backlash, OpenAI CEO Sam Altman explains why he cut a deal with the Pentagon(外部)
OpenAIのペンタゴン契約への社内外の反発を詳報。アルトマンの自認コメントと契約修正の過程を伝えるFortune記事。
OpenAI sweeps in to snag Pentagon contract after Anthropic labeled ‘supply chain risk’(外部)
Anthropicのリスク指定直後にOpenAIがペンタゴン契約を締結した経緯を速報。米国企業への同指定が史上初と報じる。
Anthropic Is Hiring a Weapons Expert to Guard Against Catastrophic AI Misuse(外部)
Anthropicの化学兵器専門家求人を分析。5年以上の経験要件とOpenAIとの給与比較(最大$455,000)を整理する記事。
Tech firms back Anthropic in Pentagon lawsuit(外部)
Google・Meta・Microsoft等の業界団体がAnthropicの訴訟支持ブリーフを提出。3月24日の審問予定を伝えるAxios記事。
【関連記事】
AIは誰のために戦うのか?|Anthropicの排除、OpenAIの電撃合意、そして現実の戦争が突きつける「国防AI」の新たな境界線
Anthropic排除とOpenAIのペンタゴン合意を軸に、AIと国家の衝突・軍事利用の境界線を深掘りした解説記事。
OpenAI、ペンタゴンとのAI契約で炎上——アルトマンが認めた「拙速」の代償
OpenAIのペンタゴン契約をめぐる社内外の反発と、アルトマンが「拙速」と自認した契約修正の経緯を詳報。
Anthropic、Claude軍事利用で米国防総省と対立─2億ドル契約破談の危機
2025年7月締結の2億ドル契約が半年余りで破談の危機に。自律型兵器・大規模監視をめぐる対立の発端を解説。
【編集部後記】
「AIを守るために、人間が危険な知識を持つ必要がある」——この構造、どこか既視感がありませんか。核抑止論や生物兵器禁止条約の議論と、根っこは同じかもしれません。
AIはいま、そのフロンティアに差しかかっています。みなさんはこの採用に、どんな印象を持ちましたか? ぜひ周囲の人と話してみてください。







































