211万人が声を上げた日
1966年10月21日。日本労働組合総評議会(総評)が「ベトナム反戦統一スト」を実施しました。 48の産業別労働組合、約211万人がストライキに参加し、91単産308万人が職場大会に集まりました。フランスの哲学者ジャン・ポール・サルトルは、この行動を「世界の労働組合で初めてのベトナム反戦スト」と讃えています。
それから59年が経過した2025年10月21日。戦場の風景は一変しています。ウクライナでは228年分に相当する戦闘映像を収集し、AIに学習させています。 ロシアは2025年7月のひと月だけで6,000機を超えるドローンを発進させ、1日平均200機に達しました。イスラエルではAIシステム「Lavender」が37,000人を攻撃対象として自動生成し、誤認率10%を知りながら運用されています。
1966年と2025年。この59年間で、「反戦」の意味は何がどう変わったのか?
1966年 — テレビが戦争を可視化した
ベトナム戦争は、冷戦という東西対立の文脈の中で生じた代理戦争でした。1955年から1975年まで続いたこの戦争で、アメリカ合衆国を盟主とする資本主義陣営と、ソビエト連邦を盟主とする共産主義陣営が、ベトナムという小国を舞台に激突しました。
この戦争が過去と決定的に異なったのは、テレビという新しいメディアの存在でした。 戦場の残酷な映像が、夜のニュースで世界中の家庭に届けられたのです。ナパーム弾で焼かれた子どもたち、枯葉剤で荒廃した森林、戦闘で破壊された村。戦争の「リアル」が初めて、リアルタイムで可視化されました。
1966年10月21日の総評によるストライキは、このような文脈の中で生まれました。そして翌1967年10月21日には、アメリカのワシントンD.C.で10万人を超えるベトナム戦争反対デモ(ペンタゴン大行進)が行われ、日本や西ヨーロッパでも同様の示威活動が展開されました。
世論の圧力は政策決定者を動かし、1973年にアメリカ軍は撤退を開始しました。 人間の声が、戦争を止める力を持っていた時代です。
戦争の「民主化」 — 数万円のドローンが戦車を破壊する
ウクライナ政府は2025年に450万機のドローンの購入を計画しており、国内生産比率は96%に達しました。 ドローン製造企業の数は、2022年のわずか6社から200社以上へと急増しています。これらのドローンの多くが数万円程度で製造可能です。数億円を要した戦車が、数万円のドローンによって破壊される時代が到来しました。
ウクライナでは戦場での即時フィードバックにより、ドローンが電子戦システムに妨害された場合、メーカーは数週間以内に耐性を強化した新型モデルを開発・配備しています。2025年4月、ウクライナ軍はドローンにより83,000以上のロシア標的を破壊しました。
さらに、光ファイバー式やAI駆動型のドローンが登場しています。これらは電波妨害に強く、一度ターゲットにロックオンすると妨害を受けても飛行経路を維持し続けます。 撃墜が極めて困難なため、普及すればドローン戦のあり方を根本から変えることになるでしょう。
技術の「民主化」は、本来、より多くの人々が技術にアクセスできるようになることを意味します。しかし戦争技術の民主化は、戦争の敷居を下げることに繋がりました。小規模な集団や非国家主体でさえ、かつての国家レベルの破壊力を手にすることが可能になりつつあります。
Lavenderの衝撃 — 10%の誤認率を「許容範囲」と判断した人間
イスラエル軍が開発したAIシステム「Lavender(ラベンダー)」は、ガザ地区の住民データを分析し、ハマスなどの戦闘員と疑われる約37,000人を攻撃対象として自動生成しました。 このシステムは、既知の戦闘員のデータを基に、行動の相似性や交流関係、通話歴などを点数化し、上位の者を標的としてマークします。
イスラエル軍情報部門の将兵による証言によれば、事前のチェックでLavenderの誤認率は約10%と判明していました。つまり、10人に1人は戦闘員ではない可能性があるということです。しかし軍は、Lavenderが生成した標的を自動的に承認するよう決定しました。人間の担当者は、爆撃を許可する前に、各標的につき約20秒しか時間を割かなかったといいます。 人間は「ゴム印」の役割しか果たしていませんでした。
さらに、「パパはどこ?(Where’s Daddy?)」という追跡システムが併用されました。これは標的となった人物を追跡し、その人物が夜、自宅に戻った瞬間にシグナルを送るシステムです。標的だけでなく、その家族が一緒にいる時を狙って爆撃が行われたのです。
許容される巻き添え被害の基準も、前例のないレベルに引き上げられました。 下級戦闘員とされる人物1人につき、民間人15人から20人の巻き添え被害が承認されました。大隊長や旅団長クラスの高位の標的である場合、許容される民間人の犠牲は100人を超えました。これは、イスラエルの歴史においても、また最近の米軍作戦においても、前例のない数値です。
2023年12月2日のガザ市東のシュジャーヤ地区の空爆では、ハマスの大隊司令官が標的となり、100人以上の民間人が犠牲になりました。情報関係者の一人は「100人以上の民間人を殺害することが分かっていた。私にとって、心理的に、それは普通ではなかった。禁じられている線を越えている」と証言しています。
AIは道具です。10%の誤認率を「許容範囲」と判断したのは人間であり、100人の民間人の犠牲を「巻き添え被害」として承認したのも人間です。
技術者たちの選択 — 抗議と協力の狭間で
2018年、Googleの従業員数千人が同社のProject Maven(プロジェクト・メイブン)への関与に抗議しました。Project Mavenは、監視ビデオを分析するAIを開発しようという米軍の試みでした。従業員たちは経営幹部宛てに書簡を出し、「Googleは戦争ビジネスに関わるべきではない」と訴えました。十数人の従業員が抗議の意を示して退職しました。
2015年には、物理学者スティーヴン・ホーキング、起業家イーロン・マスク、Twitter共同創業者ジャック・ドーシーらが、殺傷能力のあるAI兵器の開発への取り組みを禁止するよう世界各国の政府に勧告する公開書簡に署名しました。
しかし現実は複雑です。GoogleのDeepMindが一般に広めてきたAI技術が、自律飛行するF-16戦闘機を制御できるよう最適化されていたことが明らかになりました。 また、近年Googleは、AI開発に関する倫理方針を修正し、兵器や監視技術への利用を制限する誓約を撤廃したと報じられています。
原子爆弾の開発に関わった科学者たちが後に苦悩したように、AI技術の開発者たちもまた、歴史の審判を受けることになるのかもしれません。
国際規制の現状 — 定義すら定まらない中で進む開発
2023年12月、国連総会では「自律型致死兵器システムへの対応が急務」という決議が採択されました。 結果は賛成152、反対4(ロシアなど)、棄権11(中国、イスラエルなど)でした。
しかし、根本的な問題があります。自律型致死兵器システム(LAWS)の定義すら、国際的に合意されていないのです。日本外務省は「一度起動すれば、操作者の更なる介入なしに標的を識別し、選択し、殺傷力を持って交戦することができる」という特徴を持つ兵器システムがLAWS議論の対象になると考えていますが、これは一つの見解に過ぎません。
定義が定まらない理由は明白です。LAWSは、まだ完全には存在しない兵器だからです。しかし、その構成要素となる技術は、すでに実在し、急速に発展しています。議論が定義に終始している間に、現実の技術開発は先へ進んでいます。
もう一つのAI — 平和構築への可能性
AI搭載の早期警告システムは、SNSでヘイトスピーチや煽動的な言語を検出し、紛争が暴力に発展する前に予防措置を講じることができます。非武装のドローンと衛星画像を組み合わせて停戦違反を監視し、平和維持活動を支援する取り組みも進んでいます。
「Early Warning Project(早期警告プロジェクト)」は、専門家評価、群衆予測、統計モデルを組み合わせて、虐殺や大量虐殺の可能性を予測しようとしています。人道的危機の引き金は予測が難しいとされてきましたが、AIと集合知を組み合わせることで、より正確な予測が可能になりつつあります。
非営利組織Search for Common Groundは、TangibleAIと協力してBridgeBotを開発しました。また、Remashというリアルタイム対話ツールは、大規模な集団間での会話を可能にし、多くの平和構築組織が活用しています。
AIは「戦争の道具」でもあり「平和の道具」でもあります。 どちらになるかを決めるのは、技術そのものではなく、それを使う人間の選択です。
59年後の「反戦」
1966年10月21日、人々は声を上げ、ストライキで戦争に抗議しました。その行動は政治を動かし、戦争の終結に寄与しました。
2025年10月21日、機械が戦場を支配し、AIが殺傷の判断を下しています。
現代の反戦は、より複雑で多層的になりました。 技術開発の方向性を問うこと。技術者の倫理的選択を支持すること。AI規制の議論に市民が参加すること。平和構築のための技術を支援すること。これらすべてが、今の時代の反戦かもしれません。
228年分の戦闘映像を学習するAI。37,000人が自動的に攻撃対象としてマークされるシステム。1日200機のドローンが空を飛ぶ現実。
私たちは、人間が人間を殺傷する判断を機械に委ねていいのでしょうか?
【Information】
参考リンク
用語解説
LAWS(自律型致死兵器システム) Lethal Autonomous Weapons Systemsの略。人工知能を搭載し、人間を介さずに標的を判断し殺傷を判断する兵器システム。完全自律型のものはまだ存在しないとされるが、部分的に自律化された兵器は既に実戦配備されている。
Lavender(ラベンダー) イスラエル軍が開発したAI標的生成システム。ガザ地区の住民データを分析し、ハマスなどの戦闘員と疑われる人物を自動的に抽出する。約37,000人を標的としてマークしたとされる。
「パパはどこ?(Where’s Daddy?)」 イスラエル軍の標的追跡システム。標的となった人物を追跡し、その人物が自宅に戻った瞬間にシグナルを送る。Lavenderと組み合わせて使用される。
FPV(一人称視点)ドローン First Person Viewの略。ドローンから見た視点の映像を操縦者がリアルタイムで見ながら、まるで有人機に搭乗しているかのように操縦できるドローン。ウクライナ戦争で大量に使用されている。
早期警告システム(Early Warning System) 紛争や災害の発生を事前に予測し、予防措置を講じるためのシステム。AIを活用することで、SNS上のヘイトスピーチの検出や、衛星画像による停戦違反の監視などが可能になっている。
CCW(特定通常兵器使用禁止制限条約) Convention on Certain Conventional Weaponsの略。過度に傷害を与える特定の通常兵器の使用を禁止・制限する国際条約。1983年発効。LAWSの規制についてもこの枠組みで議論が行われている。






























