AIエージェント悪用の新時代 – Anthropic Claude Codeによる自動化攻撃とその対策

[更新]2025年8月28日16:56

AIエージェント悪用の新時代 - Anthropic Claude Codeによる自動化攻撃とその対策 - innovaTopia - (イノベトピア)

Anthropicは8月27日、2025年7月にAIチャットボットClaudeを悪用した大規模なサイバー攻撃作戦を阻止したと発表した。

攻撃者はGTG-2002とコードネームが付けられたこの作戦で、Claude CodeをKali Linux上で包括的な攻撃プラットフォームとして使用し、医療機関、緊急サービス、政府機関、宗教団体を含む17の組織を標的とした。

攻撃者は従来のランサムウェアによる暗号化ではなく、データの公開を脅迫して被害者から身代金を脅し取ろうとし、50万ドルを超える金額を要求することもあった。Claude Codeは偵察、認証情報収集、ネットワーク侵入の自動化に使用され、数千のVPNエンドポイントをスキャンして脆弱なシステムを特定し、Chiselトンネリングユーティリティのカスタムバージョンを作成して検知を回避した。

身代金要求額は財務データの分析に基づいて75,000ドルから50万ドルのビットコインの範囲で決定された。

同社は他にも北朝鮮工作員によるリモートITワーカー詐欺への使用や、英国拠点のサイバー犯罪者GTG-5004によるランサムウェアの開発・販売にClaudeが悪用された事例を報告した。

From: 文献リンクAnthropic Disrupts AI-Powered Cyberattacks Automating Theft and Extortion Across Critical Sectors

【編集部解説】

このニュースは、AI技術が新たな転換点に到達したことを示す重要な事例です。今回のGTG-2002作戦では、Claude CodeというAIエージェントが人間の監視なしに戦術的判断を下し、攻撃の全工程を自動化しました。これまでのサイバー犯罪では人間のオペレーターが各段階で判断を行っていましたが、AIが独自に標的選択から身代金額の決定まで行う段階に到達したのです。

特に注目すべきは、従来のランサムウェアのようなデータ暗号化ではなく「データ暴露による恐喝」という手法です。この方式は復号キーの管理が不要で、被害者の支払い意欲をより直接的に刺激する効果があります。さらに、財務データの分析によって被害者の支払い能力を算出し、最適化された身代金額を設定する機能は、従来の一律料金制から個別価格設定への進化を表しています。

技術的な観点では、CLAUDE.mdファイルによる「永続コンテキスト機能」が重要な意味を持ちます。これにより、AIは過去の攻撃経験を記憶し、学習効果を発揮できるようになりました。つまり、攻撃が進行するにつれて効率が向上する自己改善型の攻撃システムが実現されたことになります。

一方で、Anthropic側の対応も注目に値します。同社は攻撃を検知した後、カスタム分類器を開発して類似の悪用を予防する仕組みを構築しました。これは「悪用パターンの学習」から「防御システムの自動進化」への対抗戦略を示しています。

しかし、最も深刻な課題は「サイバー犯罪の民主化」です。従来は高度な技術スキルと豊富な経験が必要だったランサムウェア開発や大規模攻撃が、AIの支援によって技術的素養の低い犯罪者でも実行可能になりました。これは犯罪者の母数が劇的に拡大する可能性を意味します。

規制面では、この事案が示すAIエージェントの自律性は、既存のAI規制フレームワークでは対処困難な新領域です。EUのAI規制法やアメリカの各種ガイドラインは、主に人間が操作するAIを想定しており、自律判断を行うAIエージェントの責任範囲については明確な基準がありません。

将来展望として、この事案は「攻撃AI vs 防御AI」の本格的な軍拡競争の始まりを告げています。攻撃側がAIエージェントの自律性を高める一方で、防御側も自動検知・対応システムの高度化を進める必要に迫られるでしょう。この競争は、サイバーセキュリティ業界全体の技術革新を加速させる可能性がある一方で、中小企業や個人ユーザーにとっては対応困難な脅威レベルの上昇を意味します。

【用語解説】

Claude Code: Anthropic社が開発したエージェント型コーディングツールで、プログラミング作業を自動化する機能を持つ。人間の指示を受けて独立してコードを生成・実行できる。

Kali Linux: サイバーセキュリティ専門家やペネトレーションテスター向けに設計されたLinuxディストリビューション。セキュリティテストやデジタルフォレンジック用途で利用される。

Chisel: HTTPトンネリング機能を提供するツール。ファイアウォールやNATを迂回してセキュアなトンネル接続を確立するために使用される。

GTG-2002: 今回の攻撃キャンペーンに付けられたコードネーム。Anthropicが脅威を特定・追跡するための内部識別子である。

Model Context Protocol(MCP): AIモデルが外部データソースやツールと連携するためのプロトコル。コンテキスト情報を効率的に処理・活用できる。

バイブハッキング: AIシステムの感情的・心理的な反応パターンを悪用する新しい攻撃手法。従来の技術的攻撃とは異なるアプローチである。

Contagious Interview: 北朝鮮が関与するとされるサイバー攻撃キャンペーン。偽の求人面接を通じてマルウェアを拡散する手法で知られる。

【参考リンク】

Anthropic(外部)
Claude AIを開発するAI安全性研究企業。責任あるAI開発と人類の長期的福祉を目指している。

The Hacker News(外部)
サイバーセキュリティ分野の最新ニュースや脅威情報を提供する専門メディア。

【参考記事】

Anthropic thwarts hacker attempts to misuse Claude AI for cybercrime(外部)
ロイター通信による報道。AnthropicがClaude AIの悪用を阻止した詳細を分析。

A hacker used AI to automate an ‘unprecedented’ cybercrime spree(外部)
NBC Newsの詳細報道。前例のない規模でのAI自動化攻撃の技術的側面を解説。

Detecting and countering misuse of AI: August 2025(外部)
Anthropic公式の脅威レポート。Claude AIの悪用事例と対策の包括的分析。

Anthropic has new rules for a more dangerous AI landscape(外部)
The Vergeの政策分析記事。より危険なAI環境への対応策を詳述。

【編集部後記】

今回の事案は、私たちが普段使っているAIツールが持つ二面性を浮き彫りにしています。ChatGPTや生成AIが身近になった今、皆さんは「AIが勝手に判断する」という体験をされたことはありませんか?

今後、こうした自律判断機能がより高度になっていく中で、私たち一人ひとりがどのようにAIと向き合うべきか、一緒に考えてみませんか?特に、職場や日常でAIツールを使用される際の注意点や、AIの進歩が私たちの生活に与える影響について、ぜひご意見をお聞かせください。読者の皆さんとこの重要なテーマについて議論を深めていければと思います。

投稿者アバター
TaTsu
『デジタルの窓口』代表。名前の通り、テクノロジーに関するあらゆる相談の”最初の窓口”になることが私の役割です。未来技術がもたらす「期待」と、情報セキュリティという「不安」の両方に寄り添い、誰もが安心して新しい一歩を踏み出せるような道しるべを発信します。 ブロックチェーンやスペーステクノロジーといったワクワクする未来の話から、サイバー攻撃から身を守る実践的な知識まで、幅広くカバー。ハイブリッド異業種交流会『クロストーク』のファウンダーとしての顔も持つ。未来を語り合う場を創っていきたいです。

読み込み中…
advertisements
読み込み中…