1966年10月21日。この日、日本労働組合総評議会(総評)が「ベトナム反戦統一スト」を実施しました。48の産業別労働組合、約211万人がストライキに参加し、91単産308万人が職場大会に集まりました。人々は声を上げ、体を張って、遠く離れたベトナムでの戦争を止めようとしたのです。フランスの哲学者ジャン・ポール・サルトルは、この行動を「世界の労働組合で初めてのベトナム反戦スト」と讃えました。
それから59年が経過した2025年10月21日。戦場の風景は一変しています。ウクライナでは、228年分に相当する戦闘映像を収集し、AIに学習させています。ロシアは2025年7月のひと月だけで6,000機を超えるドローンを発進させ、1日平均200機に達しました。イスラエルではAIシステム「Lavender」が37,000人を攻撃対象として自動生成し、誤認率10%を知りながら運用されています。機械が戦場を支配し、アルゴリズムが「誰が死ぬか」を決定する時代が、すでに到来しているのです。
1966年と2025年。この59年間で、「反戦」の意味は何がどう変わったのでしょうか。人間が声を上げることで政治を動かし戦争を終結させた時代から、機械が殺傷の判断を下す時代へ。私たちは今、何に反対し、何をすべきなのでしょうか。本稿では、AI時代の戦争と平和について、事実に基づいて冷静に見つめ、共に考えたいと思います。
1966年 ― 人間が戦争を止めようとした時代
ベトナム戦争は、冷戦という東西対立の文脈の中で生じた代理戦争でした。1955年から1975年まで続いたこの戦争では、アメリカ合衆国を盟主とする資本主義・自由主義陣営と、ソビエト連邦を盟主とする共産主義・社会主義陣営が、ベトナムという小国を舞台に激突したのです。
この戦争が過去の戦争と決定的に異なったのは、テレビという新しいメディアの存在でした。戦場の残酷な映像が、夜のニュースで世界中の家庭に届けられました。ナパーム弾で焼かれた子どもたち、枯葉剤で荒廃した森林、戦闘で破壊された村。戦争の「リアル」が初めて、リアルタイムで可視化されたのです。
1966年10月21日の総評によるストライキは、このような文脈の中で生まれました。そして翌1967年10月21日には、アメリカのワシントンD.C.で10万人を超えるベトナム戦争反対デモ(ペンタゴン大行進)が行われ、日本や西ヨーロッパでも同様の示威活動が展開されました。世界各地で、人々は声を上げたのです。
重要なのは、こうした反戦運動が実際に政治を動かし、戦争の終結に寄与したという歴史的事実です。世論の圧力は政策決定者を動かし、1973年にアメリカ軍は撤退を開始しました。人間の意志が、戦争という暴力を止める力を持っていたのです。
戦争の「民主化」 ― 安価なAIドローンが変えた戦場
2025年現在、戦争のあり方は根本的に変容しています。その象徴が、ドローンという技術です。
ウクライナ政府は2025年に450万機のドローンの購入を計画しており、国内生産比率は96%に達しました。ドローン製造企業の数は、2022年のわずか6社から200社以上へと急増しています。注目すべきは、これらのドローンの多くが数万円程度で製造可能だという点です。かつては数億円を要した戦車が、数万円のドローンによって破壊される時代が到来したのです。
ウクライナは戦場での即時フィードバックにより、ドローンが電子戦システムに妨害された場合、メーカーは数週間以内に耐性を強化した新型モデルを開発・配備しています。この「試行錯誤のサイクル」が極めて短いため、技術進化が加速度的に進んでいます。2025年4月、ウクライナ軍はドローンにより83,000以上のロシア標的を破壊しました。
さらに、光ファイバー式やAI駆動型のドローンが登場し、状況は一変しつつあります。これらは電波妨害に強く、一度ターゲットにロックオンすると妨害を受けても飛行経路を維持し続けます。撃墜が極めて困難なため、普及すればドローン戦のあり方を根本から変えることになるでしょう。
ここに、深刻な皮肉があります。技術の「民主化」は、本来、より多くの人々が技術にアクセスできるようになることを意味します。しかし戦争技術の民主化は、戦争の敷居を下げることに繋がりました。高価な兵器システムに依存しなくても、低コストで効果的な戦闘力を得られるようになったのです。小規模な集団や非国家主体でさえ、かつての国家レベルの破壊力を手にすることが可能になりつつあります。
Lavenderの衝撃 ― AIが決める「誰が死ぬか」
技術の進化は、さらに深刻な局面に入っています。それは、AIが殺傷の判断を下すという現実です。
イスラエル軍が開発したAIシステム「Lavender(ラベンダー)」は、ガザ地区の住民データを分析し、ハマスなどの戦闘員と疑われる約37,000人を攻撃対象として自動生成しました。このシステムは、既知の戦闘員のデータを基に、行動の相似性や交流関係、通話歴などを点数化し、上位の者を標的としてマークします。
最も衝撃的なのは、運用の実態です。イスラエル軍情報部門の将兵による証言によれば、事前のチェックでLavenderの誤認率は約10%と判明していました。つまり、10人に1人は戦闘員ではない可能性があるということです。しかし軍は、Lavenderが生成した標的を自動的に承認するよう決定しました。人間の担当者は、爆撃を許可する前に、Lavenderがマークした標的が男性かどうかを確認するのに、各標的につき約20秒しか時間を割かなかったといいます。人間は「ゴム印」の役割しか果たしていなかったのです。
さらに、「パパはどこ?(Where’s Daddy?)」という追跡システムが併用されました。これは標的となった人物を追跡し、その人物が夜、自宅に戻った瞬間にシグナルを送るシステムです。つまり、標的だけでなく、その家族が一緒にいる時を狙って爆撃が行われたのです。
許容される巻き添え被害の基準も、前例のないレベルに引き上げられました。下級戦闘員とされる人物1人につき、民間人15人から20人の巻き添え被害が承認されました。大隊長や旅団長クラスの高位の標的である場合、許容される民間人の犠牲は100人を超えました。これは、イスラエルの歴史においても、また最近の米軍作戦においても、前例のない数値です。
実際、2023年12月2日のガザ市東のシュジャーヤ地区の空爆では、ハマスの大隊司令官が標的となり、100人以上の民間人が犠牲になりました。情報関係者の一人は「100人以上の民間人を殺害することが分かっていた。私にとって、心理的に、それは普通ではなかった。禁じられている線を越えている」と証言しています。
ここで起きているのは、AIによる意思決定プロセスが、人間の判断を排除し、大規模な破壊と殺戮を「客観的なアルゴリズムの結果」として正当化するという事態です。機械は感情を持ちません。倫理的な葛藤もありません。ただプログラムされた通りに、標的を選び続けるのです。
技術者の倫理的ジレンマ ― Googleから防衛企業まで
AI技術の開発者たちは、自らの技術が戦争に利用される現実の前で、深刻なジレンマに直面しています。
2018年、Googleの従業員数千人が同社のProject Maven(プロジェクト・メイブン)への関与に抗議しました。Project Mavenは、監視ビデオを分析するAIを開発しようという米軍の試みでした。従業員たちは経営幹部宛てに書簡を出し、「Googleは戦争ビジネスに関わるべきではない」と訴えました。十数人の従業員が抗議の意を示して退職しました。
2015年には、物理学者スティーヴン・ホーキング、起業家イーロン・マスク、Twitter共同創業者ジャック・ドーシーらが、殺傷能力のあるAI兵器の開発への取り組みを禁止するよう世界各国の政府に勧告する公開書簡に署名しました。AI研究の第一線にいる人々が、自らの技術が戦争に利用されることへの懸念を表明したのです。
しかし現実は、より複雑です。GoogleのDeepMindが一般に広めてきたAI技術が、自律飛行するF-16戦闘機を制御できるよう最適化されていたことが明らかになりました。また、近年Googleは、AI開発に関する倫理方針を修正し、兵器や監視技術への利用を制限する誓約を撤廃したと報じられています。これにより、同社が軍事用途のAI開発を支援する可能性が高まっています。
AI研究者の中には、自分たちは汎用ツールを開発しているにすぎないと考える人々もいます。しかし、自分たちの研究が最終的にどのように利用される可能性があるのかについて、懸念を募らせる研究者も少なくありません。
技術は中立なのでしょうか。それとも、開発者には自らの技術が何に使われるかについて責任があるのでしょうか。この問いに、簡単な答えはありません。しかし、原子爆弾の開発に関わった科学者たちが後に苦悩したように、AI技術の開発者たちもまた、歴史の審判を受けることになるでしょう。
国際規制の現状と課題 ― 追いつかない議論
国際社会は、自律型致死兵器システム(LAWS)の規制に向けて動いています。しかし、その歩みは遅々としたものです。
2019年、特定通常兵器使用禁止制限条約(CCW)の枠組みにおいて、LAWSに関する11項目の指針が合意されました。この指針には、国際人道法の全ての兵器システムへの適用、人間の責任の確保、新興技術の平和的利用へのアクセスなどが含まれています。
2023年12月、国連総会では「自律型致死兵器システムへの対応が急務」という決議が採択されました。結果は賛成152、反対4(ロシアなど)、棄権11(中国、イスラエルなど)でした。圧倒的多数が問題の重要性を認識していることがわかります。
しかし、根本的な問題があります。LAWSの定義すら、国際的に合意されていないのです。日本外務省は「一度起動すれば、操作者の更なる介入なしに標的を識別し、選択し、殺傷力を持って交戦することができる」という特徴を持つ兵器システムがLAWS議論の対象になると考えていますが、これは一つの見解に過ぎません。
定義が定まらない理由は明白です。LAWSは、まだ完全には存在しない兵器だからです。しかし、その構成要素となる技術は、すでに実在し、急速に発展しています。議論が定義に終始している間に、現実の技術開発は先へ進んでいるのです。
さらに、国際的な枠組みにおける議論では、ロシア、中国、イスラエル、米国など、軍事的に強力な国々が規制に消極的です。これらの国々は、AI技術における軍事的優位性を維持したいと考えています。法的拘束力のある国際条約の成立には、これらの国々の同意が不可欠ですが、その見通しは立っていません。
規制が追いつかない中、技術開発は加速しています。私たちは今、規制の空白地帯で、新しい戦争の形が生まれる瞬間を目撃しているのです。
もう一つのAI ― 平和構築への可能性
しかし、ここで立ち止まって考えるべきことがあります。AIは、必然的に戦争の道具なのでしょうか。
実は、AIは平和構築のためにも活用されています。AI搭載の早期警告システムは、SNSでヘイトスピーチや煽動的な言語を検出し、紛争が暴力に発展する前に予防措置を講じることができます。非武装のドローンと衛星画像を組み合わせて停戦違反を監視し、平和維持活動を支援する取り組みも進んでいます。
「Early Warning Project(早期警告プロジェクト)」は、専門家評価、群衆予測、統計モデルを組み合わせて、虐殺や大量虐殺の可能性を予測しようとしています。人道的危機の引き金は予測が難しいとされてきましたが、AIと集合知を組み合わせることで、より正確な予測が可能になりつつあります。
また、AIは対話を促進する道具としても使われています。非営利組織Search for Common Groundは、TangibleAIと協力してBridgeBotを開発しました。また、Remashというリアルタイム対話ツールは、大規模な集団間での会話を可能にし、多くの平和構築組織が活用しています。
AIは、過去の和平合意のデータを分析し、成功パターンを特定することで、調停活動を支援することもできます。自然言語処理技術を用いて、交渉における言葉の選択や文脈を分析し、より生産的な対話を促すことも可能です。
つまり、AIは「戦争の道具」でもあり「平和の道具」でもあります。どちらになるかを決めるのは、技術そのものではなく、それを使う人間の選択なのです。
2025年の「反戦」が意味するもの
1966年10月21日、人々は声を上げ、ストライキで戦争に抗議しました。その行動は政治を動かし、戦争の終結に寄与しました。
2025年10月21日、機械が戦場を支配し、AIが殺傷の判断を下しています。
「反戦」は今、何を意味するのでしょうか。
かつて反戦とは、戦争そのものへの直接的な抗議でした。デモに参加すること、ストライキを行うこと、声を上げることが、反戦の行動でした。しかし2025年の今、私たちが向き合うべきは、戦争そのものだけではありません。戦争を可能にする技術、その技術を開発する企業、その企業に資金を提供する投資家、そしてその技術の使用を許容する政策決定者たち。反戦は、より複雑で多層的な行為になっています。
現代の反戦は、技術開発の方向性を問うことです。私たちは、AIが人間を殺傷する判断を下すことを許容するのでしょうか。それとも、AIは人間の監督下にあるべきだと主張するのでしょうか。
現代の反戦は、技術者の倫理的選択を支持することです。軍事研究への参加を拒否したGoogle従業員のような人々を、私たちは支持するのでしょうか。それとも、国家安全保障のために技術者は協力すべきだと考えるのでしょうか。
現代の反戦は、AI規制の議論に市民が参加することです。専門家や政策決定者だけに任せるのではなく、市民社会として声を上げることです。国際的な枠組みづくりを監視し、自国の政府に働きかけることです。
そして現代の反戦は、平和構築のための技術を支援することです。AIが戦争の道具にも平和の道具にもなり得るのであれば、私たちは平和の側の技術開発を応援すべきです。早期警告システム、対話促進ツール、停戦監視システム。これらの技術が、戦争を未然に防ぐ可能性を持っています。
私たちに問われていること
この記事を読んでいるあなたに、三つの問いを投げかけたいと思います。
第一に、もしあなたがAI技術者だとしたら、軍事研究に関わるべきでしょうか。
この問いに唯一の正解はありません。国家の安全保障は重要だと考える人もいるでしょう。しかし、自らの技術が人の命を奪うことに使われることに耐えられない人もいるでしょう。重要なのは、この問いから目を逸らさないことです。技術者一人ひとりが、自らの仕事の帰結について考え、選択することです。そして私たちは、良心に従って選択した技術者たちを、支持する社会であるべきです。
第二に、私たちは、AIに戦争の判断を委ねていいのでしょうか。
Lavenderの事例が示すのは、アルゴリズムが「客観的」であるという幻想の危険性です。AIは、入力されたデータとプログラムされたアルゴリズムに従うだけです。そこに倫理的判断はありません。10%の誤認率を「許容範囲」と判断したのは人間です。100人の民間人の犠牲を「巻き添え被害」として承認したのも人間です。AIは道具であり、その使用に対する責任は常に人間にあります。私たちは、人間が最終的な判断と責任を負うことを、譲ってはならないのではないでしょうか。
第三に、2025年の今、「平和のための行動」とは何でしょうか。
1966年のようにストライキに参加することだけが、平和のための行動ではありません。AI倫理に関する議論に関心を持つこと。技術者の倫理的選択を支持する声を上げること。平和構築のためのAI開発を応援すること。国際的なAI規制の議論を注視し、必要であれば政府に働きかけること。これらすべてが、現代における平和のための行動です。
そして何より、諦めないことです。技術の進歩は止められません。しかし、その技術をどう使うかは、私たち次第です。
選択の時
テクノロジーは道具です。それを戦争の道具にするか、平和の道具にするかを決めるのは、今を生きる私たち自身です。
1966年10月21日、人々は声を上げ、体を張って戦争に抗議しました。その行動は、世界を動かしました。2025年の今、私たちの「反戦」は、技術の未来を選択する行為なのかもしれません。
AIが228年分の戦闘映像を学習する時代。37,000人が自動的に攻撃対象としてマークされる時代。1日200機のドローンが空を飛ぶ時代。この現実を前に、私たちは何を選択するのでしょうか。
戦争は、決して避けられない運命ではありません。それは常に、人間の選択の結果です。そして今、私たちはかつてないほど重要な選択を迫られています。AIという強力な技術を、破壊のために使うのか、それとも平和のために使うのか。
この問いに答えるのは、政治家でも軍人でも技術者でもありません。私たち一人ひとりです。
1966年10月21日、日本から始まった反戦の声は、世界に広がりました。2025年10月21日、私たちもまた、新しい形の反戦の声を上げる時です。それは、技術の未来に対する明確な意志の表明です。
私たちは、人間が人間を殺傷する判断を機械に委ねることに、断固として反対します。私たちは、戦争の敷居を下げる技術開発の方向性に、強く異議を唱えます。そして私たちは、AIが平和構築のために使われる未来を、積極的に選択します。
これが、2025年の「反戦」です。
【Information】
参考リンク
用語解説
LAWS(自律型致死兵器システム) Lethal Autonomous Weapons Systemsの略。人工知能を搭載し、人間を介さずに標的を判断し殺傷を判断する兵器システム。完全自律型のものはまだ存在しないとされるが、部分的に自律化された兵器は既に実戦配備されている。
Lavender(ラベンダー) イスラエル軍が開発したAI標的生成システム。ガザ地区の住民データを分析し、ハマスなどの戦闘員と疑われる人物を自動的に抽出する。約37,000人を標的としてマークしたとされる。
「パパはどこ?(Where’s Daddy?)」 イスラエル軍の標的追跡システム。標的となった人物を追跡し、その人物が自宅に戻った瞬間にシグナルを送る。Lavenderと組み合わせて使用される。
FPV(一人称視点)ドローン First Person Viewの略。ドローンから見た視点の映像を操縦者がリアルタイムで見ながら、まるで有人機に搭乗しているかのように操縦できるドローン。ウクライナ戦争で大量に使用されている。
早期警告システム(Early Warning System) 紛争や災害の発生を事前に予測し、予防措置を講じるためのシステム。AIを活用することで、SNS上のヘイトスピーチの検出や、衛星画像による停戦違反の監視などが可能になっている。
CCW(特定通常兵器使用禁止制限条約) Convention on Certain Conventional Weaponsの略。過度に傷害を与える特定の通常兵器の使用を禁止・制限する国際条約。1983年発効。LAWSの規制についてもこの枠組みで議論が行われている。