advertisements

ビッグテック3社のガザ虐殺加担が明らかに:AI「Lavender」が37,000人を標的化、Microsoftは監視システム提供

[更新]2025年12月31日

 - innovaTopia - (イノベトピア)

Guardianは2025年1月から、イスラエル軍とMicrosoft、Google、Amazonなどシリコンバレー企業の関係を調査してきた。

記者のハリー・デイビスとユヴァル・アブラハムによる調査報道は、イスラエル軍がパレスチナ人のほぼすべての電話を収集し、Microsoftのクラウドサービスに保存していた大規模監視プログラムを暴露した。

この報道を受けてMicrosoftは一部技術へのイスラエルのアクセスを遮断した。イスラエル軍は「Lavender」と呼ばれる機械学習アルゴリズムを使用し、ガザの電話番号保有者にスコアを付与して標的を選定していた。

10月7日以降、数万人の予備役動員により技術システムの使用量が急増し、ビッグテック企業が大量のデータ保存と分析を支援した。

GoogleとAmazonは2021年にイスラエルと「Nimbusプロジェクト」契約を締結し、政府省庁や国防省のデータをクラウドサーバーに移行している。

両記者は、この技術が将来の戦争のあり方を示すものであり、調査は氷山の一角に過ぎないと述べている。

From: 文献リンク‘Data is control’: what we learned from a year investigating the Israeli military’s ties to big tech

【編集部解説】

Guardianは2025年12月30日、イスラエル軍とビッグテック企業の1年にわたる調査報道を総括する記事を公開しました。この調査は、+972 MagazineおよびLocal Callとの共同プロジェクトとして、現代の戦争におけるテクノロジー企業の加担という、極めて重大な問題を明らかにしています。

この調査が暴いたのは、Microsoft、Google、Amazonという世界最大級のテクノロジー企業が、パレスチナ人に対する組織的な監視と攻撃のインフラを提供していたという事実です。特にMicrosoftのケースは衝撃的でした。イスラエルの諜報機関Unit 8200の元責任者ヨッシ・サリエルは、2021年頃に偽名で出版した著書の中で、軍がGoogle、Amazon、Microsoftなどのシリコンバレー企業とBoeingやLockheed Martinのような関係を構築すべきだと主張していました。この予見的なビジョンの一部が、2022年からMicrosoftとの協力関係として実現しました。

2022年から稼働した大規模監視システムは、ガザとヨルダン川西岸のパレスチナ人のほぼすべての電話を傍受し、Microsoftのクラウドサービス「Azure」に保存していました。この大量の音声データは、単なる情報収集にとどまりませんでした。Unit 8200の情報筋によれば、これらのデータは空爆の標的選定に使用され、実際に民間人を殺害した攻撃に直接貢献していたのです。ヨルダン川西岸では、収集した情報を使ってパレスチナ人の弱みを握り、脅迫に利用されていたことも明らかになっています。

Microsoftは当初、Azureが「標的化や危害を加えるために使用された証拠はない」と主張していました。しかし2025年8月7日のGuardianの報道を受けて調査を実施した結果、9月25日にUnit 8200の一部サービスへのアクセスを遮断せざるを得なくなりました。これは「民間人の大規模監視を促進する技術は提供しない」という同社の方針に違反していたためです。ビッグテック企業がイスラエル軍からサービスを撤回したのは、確認されている限り初めての事例です。

しかし問題は、Microsoft単体にとどまりません。イスラエル軍は「Lavender」と呼ばれるAIシステムを開発し、ガザの電話番号保有者ほぼ全員に1から100のスコアを付与して、ハマスやイスラム聖戦のメンバーである可能性を判定していました。このシステムは既知の戦闘員のデータセットで訓練された機械学習アルゴリズムに基づいており、最大で37,000人のパレスチナ人を標的としてマークしました。

さらに衝撃的なのは、このシステムに約10%のエラー率があることをイスラエル軍が認識していながら使用を続けていたことです。情報筋によれば、低級戦闘員1人を攻撃するために15〜20人の民間人の死が「許容」され、高級司令官の場合は100人以上の民間人の犠牲が承認されることもありました。「Where’s Daddy?」という別のAIシステムは、標的が家族の家にいる時を追跡し、軍事活動中ではなく自宅にいる時に意図的に攻撃するよう設計されていました。

人間のチェックは形骸化していました。ある情報筋は、AIの推奨を承認するのにわずか20秒しかかけず、人間は「ラバースタンプ」として機能していたと証言しています。10月7日以降、数万人の予備役が動員されたことで、技術システムの使用量が急増し、ビッグテック企業のインフラがこの大規模な破壊を可能にしたのです。

GoogleとAmazonも深く関与しています。2021年に両社が締結した12億ドルの「Project Nimbus」契約は、7年間にわたってイスラエル政府、国防省、軍にクラウドコンピューティングとAIサービスを提供するものです。この契約には異例の条項が含まれていました。

第一に、GoogleとAmazonは、イスラエルがこれらの技術をどのように使用しているかを制限できません。たとえ利用規約に違反していても、です。第二に、外国の裁判所がイスラエルのデータを要求した場合、両社は秘密裏にイスラエルに通知する「ウィンクメカニズム」に同意しました。これは、法的命令を迂回し、イスラエルにデータを隠す時間を与えるための仕組みです。

リーク文書によれば、イスラエル当局はこの要求が米国法と「衝突する可能性がある」ことを認識していました。つまり両社は、契約違反か法的義務違反かの選択を迫られることを事前に知っていたのです。さらに、契約ではボイコット圧力によるサービス停止も禁じられており、従業員や株主の抗議があってもサービスを継続しなければなりません。

GoogleとAmazonは、通常の利用規約ではなく「調整された利用規約」が適用されると主張していますが、その内容は機密とされており公開されていません。契約文書には、イスラエルの国営武器製造企業であるIsrael Aerospace IndustriesとRafael Advanced Defense Systemsがこのクラウドサービスを使用することも明記されています。これはGoogleが繰り返し主張してきた「兵器や情報機関の機密性の高い軍事作業には向けられていない」という説明と明確に矛盾します。

The Interceptの調査によれば、Googleの弁護士たちは契約締結の4ヶ月前から、「Google Cloudサービスがヨルダン川西岸におけるイスラエルの活動を含む人権侵害を促進するために使用される可能性がある」と懸念を表明していました。つまりGoogleは、人権侵害への加担の可能性を認識しながら契約を結んだのです。

Microsoftもこの契約を争いましたが、イスラエル政府の要求の一部を拒否したため選ばれませんでした。皮肉なことに、そのMicrosoftが後にUnit 8200との契約で批判を浴び、サービスを停止する結果となりました。報道によれば、Unit 8200はデータをAmazon Web Servicesに移行する計画を進めているとされています。

これらの企業内では激しい抗議が起きています。2024年4月、Googleの従業員たちがニューヨークとサニーベールのオフィスで座り込みを行い、Project Nimbusへの反対を表明しました。彼らはGoogle CloudのCEOトーマス・クリアンのオフィスを占拠し、「私はジェノサイドを助ける技術を構築することを拒否する」と叫びました。その結果、50人以上の従業員が解雇されました。

Amazonでも1,700人の従業員がCEOのアンディ・ジャシーに請願書を送り、「Amazonはイスラエルの公的部門にクラウドエコシステムを提供することで、パレスチナの活動家を抑圧し、ガザに残忍な包囲を課すために使用されるイスラエル軍の人工知能と監視能力を強化している」と訴えました。

国際司法裁判所(ICJ)がイスラエルによるジェノサイドの判断を下した場合、次の問いが浮上します。「誰がそのジェノサイドに貢献したのか?どの企業がそれを維持し持続するのを助けたのか?」Amnesty Internationalのアニエス・カラマール事務総長は、「Microsoftを含むすべての企業は、イスラエルのガザ地区におけるパレスチナ人に対するジェノサイド、すべてのパレスチナ人に対するアパルトヘイトを支えるグローバルな政治経済への参加に向き合わなければならない」と述べています。

この問題は、イスラエルとパレスチナの紛争に限定されません。記者のハリー・デイビスが指摘するように、他の西側軍もイスラエルがこの戦争をどのように遂行したか、この種の技術をどのように統合したかに大きな関心を寄せています。米軍もGoogle、Amazon、Microsoftとの巨額の契約を結んでおり、カリブ海での作戦を含む軍事活動でこれらのサービスに依存している可能性が高いのです。

AIが戦争に統合されることで、破壊の規模は劇的に拡大しました。ユヴァル・アブラハム記者は「AIによってイスラエルは、標的と目的を持つデータ駆動型攻撃の正当性を失うことなく、絨毯爆撃の効果的な結果を達成できた」と分析しています。つまり、AIは無差別な破壊を「精密攻撃」として正当化する言説を生み出したのです。

シリコンバレーのテクノロジー企業は、自社のサービスが「世界をより良い場所にする」と主張してきました。しかし今回の調査が明らかにしたのは、利益のためにその原則を放棄し、大規模な人権侵害のインフラを提供していた実態です。両記者は「我々は氷山の一角を明らかにしただけ」と述べており、調査は2026年も継続されます。

テクノロジーは中立ではありません。それを設計し、提供し、利益を得る企業には責任があります。この事案は、AI時代の戦争において、シリコンバレーのテック企業がもはや傍観者ではなく、積極的な加担者であることを示しています。Microsoft、Google、Amazonは、パレスチナ人に対する監視、標的化、殺害のインフラを提供することで、現代史における最も深刻な人権侵害の一つに直接関与したのです。

【用語解説】

Unit 8200(8200部隊)
イスラエル軍の諜報機関で、信号情報(SIGINT)の収集と分析を担当する。米国のNSA(国家安全保障局)に相当する組織であり、サイバー戦争と監視技術の分野で世界最高水準の能力を持つとされる。

Lavender(ラベンダー)
イスラエル軍が開発したAI駆動の標的選定システム。機械学習を使用してガザの住民に1〜100のスコアを付与し、ハマスやイスラム聖戦のメンバーである可能性を判定する。最大37,000人のパレスチナ人を標的としてマークした。

Where’s Daddy?(パパはどこ?)
Lavenderと連動するAIシステムで、標的となった人物が家族の家にいる時を追跡する。軍事活動中ではなく、自宅にいる時に意図的に攻撃するよう設計されている。

The Gospel(福音)
イスラエル軍の標的管理部門が使用するAIシステム。建物や構造物を爆撃標的として自動的に推奨する。2019年に設立された標的管理部門は、空軍が攻撃する標的が不足する問題に対処するために作られた。

Azure(アジュール)
Microsoftが提供するクラウドコンピューティングプラットフォーム。膨大なデータの保存と処理能力を提供し、AI機能も統合されている。

Blobストレージ
Binary Large Objectの略で、画像、動画、音声ファイルなどの非構造化データを大量に保存できるクラウドストレージの仕組み。

ICJ(国際司法裁判所)
国連の主要な司法機関で、国家間の法的紛争を解決し、国際法に関する勧告的意見を提供する。

+972 Magazine
イスラエルとパレスチナの問題を扱う独立系オンラインマガジン。イスラエル人とパレスチナ人のジャーナリストが協力して運営している。

Local Call
ヘブライ語の独立系オンラインメディア。イスラエル国内の政治、社会問題を扱う。

【参考リンク】

+972 Magazine(外部)
イスラエル・パレスチナ問題を扱う独立系オンラインマガジン。今回の調査報道のパートナー媒体の一つ

Amnesty International(外部)
人権問題に取り組む国際NGO。Microsoftの決定を歓迎しつつ、すべての契約の調査を求めている

Human Rights Watch(外部)
国際的な人権監視組織。イスラエル軍のデジタルツール使用について調査レポートを発表している

No Tech For Apartheid(外部)
GoogleとAmazonの従業員によるProject Nimbusへの抗議運動。テック企業の倫理的責任を問う活動を展開

【参考記事】

Microsoft storing Israeli intelligence trove used to attack Palestinians(外部)
+972 Magazineによる調査報道。MicrosoftのクラウドがUnit 8200の大規模監視に使用されていた実態を暴露

‘Lavender’: The AI machine directing Israel’s bombing spree in Gaza(外部)
イスラエル軍のAI標的選定システム「Lavender」の詳細を明らかにした重要な調査報道。37,000人をマークした実態を報告

Inside Israel’s deal with Google and Amazon(外部)
Project Nimbusの12億ドル契約の詳細を暴露。GoogleとAmazonが利用規約を無視する異例の条件に合意していた事実を報告

Microsoft block Israel’s military unit from using its technology(外部)
Amnesty Internationalの声明。Microsoftの決定を歓迎しつつ、すべてのテック企業が責任に向き合うべきと主張

Microsoft cloud used in Israeli mass surveillance of Palestinians: Report(外部)
Al Jazeeraによる報道。Microsoftのクラウドが2022年から稼働していた監視システムについて詳細に解説

Microsoft cuts Israeli military’s access to some cloud computing, AI(外部)
Microsoftがサービスを遮断した経緯と、Unit 8200がAmazon Web Servicesへ移行する計画について報告

Questions and Answers: Israeli Military’s Use of Digital Tools in Gaza(外部)
Human Rights Watchによる詳細な分析。Lavender、The Gospel、Where’s Daddy?などのAIツールの問題点を指摘

【編集部後記】

私たちが毎日使っているクラウドサービスやAIツールが、どのように使われているか考えたことはありますか?今回の調査報道は、テクノロジーの「中立性」という神話を打ち砕きました。Microsoft、Google、Amazonという私たちにとって身近な企業が、大規模な人権侵害のインフラを提供していた事実は、テクノロジー産業全体の倫理的責任を問い直す契機となるでしょう。この問題は遠い場所の出来事ではなく、AI時代の戦争のあり方を示す重要な先例です。私たち一人ひとりが、テクノロジー企業に透明性と説明責任を求めていく必要があります。

投稿者アバター
Satsuki
テクノロジーと民主主義、自由、人権の交差点で記事を執筆しています。 データドリブンな分析が信条。具体的な数字と事実で、技術の影響を可視化します。 しかし、データだけでは語りません。技術開発者の倫理的ジレンマ、被害者の痛み、政策決定者の責任——それぞれの立場への想像力を持ちながら、常に「人間の尊厳」を軸に据えて執筆しています。 日々勉強中です。謙虚に学び続けながら、皆さんと一緒に、テクノロジーと人間の共進化の道を探っていきたいと思います。

読み込み中…

innovaTopia の記事は、紹介・引用・情報収集の一環として自由に活用していただくことを想定しています。

継続的にキャッチアップしたい場合は、以下のいずれかの方法でフォロー・購読をお願いします。