2025年3月5日、米国防総省は人工知能企業Scale AIと契約を結び、軍事計画と作戦にAIエージェントを導入する「Thunderforge」プロジェクトを開始した。
このプロジェクトは、国防イノベーション部門(DIU)が主導し、Scale AIがAndurilとMicrosoftと共にチームを組んで実施する。Andurilは自社のLatticeソフトウェアプラットフォームを提供し、Microsoftは大規模言語モデルを担当する。
Thunderforgeの目的は、軍事意思決定者が情報をより迅速に分析し、AIの提案に基づいて判断を下すことを支援することだ。具体的には、任務計画や戦役開発の支援、戦域レベルでのリソース配分、戦略的評価などに活用される。
システムは、ハワイに本部を置く米インド太平洋軍と、ドイツに本部を置く米欧州軍に最初に導入される予定だ。その後、国防総省は11ある統合軍全てに展開する計画を立てている。
DIUのThunderforgeプロジェクトリーダーであるBryce Goodman氏は、AIによる軍事意思決定の変革が米軍の優位性維持に不可欠だと述べている。
契約金額は明らかにされていないが、プロジェクトの規模を考えると大規模なものになると予想される。
from:It begins: Pentagon to give AI agents a role in decision making, ops planning
【編集部解説】
innovaTopiaの読者の皆様、今回のニュースは米国防総省がAI企業Scale AIと契約を結び、軍事計画にAIを導入する「Thunderforge」プロジェクトを開始したというものです。この動きは、現代の軍事戦略に大きな変革をもたらす可能性があります。
まず、このプロジェクトの目的は、軍事意思決定者が情報をより迅速に分析し、AIの提案に基づいて判断を下すことを支援することです。具体的には、任務計画や戦役開発の支援、戦域レベルでのリソース配分、戦略的評価などに活用されます。
注目すべき点は、このシステムが最初に米インド太平洋軍と米欧州軍に導入される予定だということです。これは、アメリカが中国やロシアといった主要な地政学的競争相手に対して、AIを活用した戦略的優位性を確保しようとしていることを示唆しています。
ThunderforgeプロジェクトではScale AIだけでなく、AndurilやMicrosoftといった企業も参加しています。これは、軍事分野におけるAI活用が、単なる実験段階を超えて、実戦的な応用段階に入りつつあることを示しています。
このような軍事へのAI導入は、意思決定の迅速化や精度向上といったメリットがある一方で、潜在的なリスクも存在します。例えば、AIの判断ミスが重大な結果を招く可能性や、AIへの過度の依存によって人間の判断力が低下するリスクなどが考えられます。
また、軍事分野でのAI活用は倫理的な問題も提起します。自律型兵器システムの開発や、AIによる標的選定など、人間の判断をどこまでAIに委ねるべきかという議論は今後さらに活発になるでしょう。
長期的な視点では、このような軍事AIの発展が国際関係にも影響を与える可能性があります。AIを活用した軍事力の増強は、新たな軍拡競争を引き起こす可能性があり、国際的な緊張を高める要因となるかもしれません。
一方で、AIの軍事利用が進むことで、逆説的に人的被害を減らす可能性もあります。より精密な情報分析と戦略立案により、不必要な衝突を回避できる可能性があるからです。
このニュースは、テクノロジーの進歩が社会に与える影響の複雑さを改めて示しています。私たちは、AIがもたらす恩恵を享受しつつ、その潜在的なリスクにも常に注意を払う必要があるでしょう。
【編集部追記】
AI軍事利用と科学者の倫理的ジレンマ
テクノロジーの急速な発展において、AIの軍事利用は避けられない議論の的となっています。アメリカが新たなAI軍事プロジェクトを始動させたというニュースは、科学の進歩と倫理の狭間で私たちに重要な問いを投げかけています。
歴史から学ぶ:科学者のジレンマ
- オッペンハイマーとトリニティ計画
- J. ロバート・オッペンハイマーは原子爆弾開発の中心人物でした。1945年7月16日、ニューメキシコ州での世界初の核実験「トリニティ」の成功後、彼はバガヴァッド・ギーターの一節を引用し、その破壊力を深く憂慮したと言われています。この引用は彼の複雑な心情を示すものですが、具体的な引用箇所については諸説存在します。彼は後に核兵器の拡散に反対する活動に身を投じました。
- 彼の内なる葛藤は、科学の純粋な探求と、その成果がもたらす破壊的な結末との間で引き裂かれた科学者の姿を象徴しています。オッペンハイマーは国家安全保障という大義のために研究を進めながらも、自らの発明が人類に与える影響に深く悩んだのです。
- アルフレッド・ノーベルのダイナマイト
- アルフレッド・ノーベルは1866年にダイナマイトを発明しました。当初は採掘や建設などの平和的目的で開発されましたが、すぐに軍事利用されるようになりました。弟の死亡記事が誤って彼自身の死亡記事として出版された際、「死の商人、死す」と表現されたことにショックを受けたノーベルは、自分の遺産が平和と科学の発展に寄与することを願い、ノーベル賞を設立しました。
- ノーベル賞設立には、彼の平和への願いや科学の発展への貢献といった様々な要因が複合的に影響しています。
- 彼の生涯は、技術革新がもたらす二面性と、発明者が自らの創造物に対して持つ責任の重さを示しています。
AIの軍事利用と現代の課題
現代において、AIの軍事応用は、上記の歴史的教訓をはるかに超える複雑な問題をはらんでいます。自律型兵器システムやAI支援の戦略分析など、その可能性は多岐にわたります。
特に懸念されるのは、AIの判断プロセスのブラックボックス化です。人間の決断と異なり、AIのアルゴリズムに基づく判断は、その過程を完全に理解することが困難な場合があります。こうした不透明性は、軍事行動における説明責任と責任の所在を曖昧にする恐れがあります。
科学者の心理的負担
AIの開発者たちは、オッペンハイマーやノーベルと同様のジレンマに直面しています。AI研究者のケイト・クロフォードは著書『アトラス・オブ・AI』で、「技術的進歩が社会的進歩と同義でない」ことを強調しています。
GoogleのAI倫理チームの元リーダーであるティムニット・ゲブルは、軍事利用への懸念から企業の特定プロジェクトへの参加を拒否し、最終的に退社するという選択をしました。これは現代の科学者が直面する倫理的選択の一例です。
哲学的考察:技術と責任の狭間で
哲学者ハンス・ヨナスは『責任という原理』において、科学技術の発展に伴う「遠隔倫理」の必要性を説きました。従来の倫理観が近接した時間と空間に限定されていたのに対し、現代技術の影響は長期的かつグローバルであるため、私たちの倫理的視野も拡張されなければならないという考えです。
AIの軍事利用においても同様に、短期的な国家安全保障の利益と、長期的な人類の安全と尊厳のバランスをいかに取るかが問われています。技術的に可能なことと、倫理的に許容されることの間には常に緊張関係があります。
未来への道筋:責任あるAI開発に向けて
私たちは科学の進歩を否定するのではなく、それを人類の繁栄のために賢明に活用する方法を模索すべきです。
- 透明性と説明責任の確保:AI軍事システムの開発過程と意思決定メカニズムの透明性を高める
- 国際的規制フレームワークの構築:核不拡散条約のように、危険なAI技術の拡散を防ぐ国際的な合意形成
- 多様なステークホルダーの参加:科学者だけでなく、倫理学者、法律専門家、市民社会を含めた幅広い議論の場の創出
- 科学者の倫理教育と支援:研究者が直面する倫理的ジレンマに対応するためのサポート体制の強化
新技術それに伴う新しい倫理の在り方が常に問われ続ける社会に生きる読者の皆様へ
科学技術の発展は両刃の剣です。AIの軍事利用が進む現代において、オッペンハイマーやノーベルが直面した葛藤から学ぶことは多くあります。技術の創造者である科学者の心理的負担に配慮しつつ、社会全体としてAI技術のリテラシーを高め、その使用に関する倫理的枠組みを構築していくことが求められています。
人類の歴史は、破壊的な力を持つ技術と共存してきた歴史でもあります。AIという新たな力を前に、私たちは過去の教訓を胸に、より賢明な選択をしていくべきなのです。
【用語解説】
DIU (Defense Innovation Unit):
米国防総省の組織で、民間のテクノロジーを軍事に応用することを目的としています。シリコンバレーのスタートアップ精神を国防に取り入れようとする組織と言えます。
Lattice:
Anduril社が開発したAIソフトウェアプラットフォームです。多数のデータストリームをリアルタイムで3D指揮統制センターに変換する能力を持ちます。日本語で言えば「格子」という意味で、様々なデータを網の目のように結びつけるイメージです。
大規模言語モデル (LLM):
ChatGPTのような、膨大なテキストデータから学習し、人間のような文章を生成できるAIモデルのことです。日本語の「大辞典」のデジタル版のようなものですが、単に言葉を記録するだけでなく、文脈を理解し新しい文章を作り出せる点が特徴です。