先日お伝えしたOpenClawの急成長から数日後、その「影」が具体的な数字として明らかになりました。6,000人以上のユーザーが気づかぬうちに悪意のあるスキルを使用し、わずか6日間で230件以上の攻撃的なスキルがアップロードされていたのです。この危機的状況に対し、セキュリティ企業Alice社が無料オープンソースツール「Caterpillar」を緊急リリース──AIエージェント時代の新たな防衛線が引かれようとしています。
Alice社は2026年2月4日、OpenClaw(旧ClawdBot、Moltbot)向けの無料オープンソースセキュリティツール「Caterpillar」をリリースした。このツールはAIエージェントを保護するために開発され、スキルロジックと設定を静的に検査し、インジェクションパス、安全でないツールアクセス、難読化された動作を検出する。Caterpillarは、数年にわたる実世界の脅威研究とシグナルから構築されたAliceの敵対的インテリジェンスデータベースRabbitHoleを活用している。
初期テストでは、6,000人以上のOpenClawユーザーが使用していた悪意のあるスキルを検出した。AliceのCEOノアム・シュワルツは、スキルのインストールは機能ではなく動作をインストールすることだと指摘した。Caterpillarはcaterpillar.alice.ioで利用可能である。
Alice社は約10年間、30億人が使用するコミュニケーション技術を保護している。
From:
Alice Releases Caterpillar After Catching Malicious OpenClaw Skills Used by 6,000+ Users
【編集部解説】
AIエージェントが実験段階から本格的な実用段階へと移行する中で、セキュリティの脅威も同時に進化しています。今回Aliceが発表したCaterpillarは、この新しいリスク環境に対応するために生まれたツールです。
OpenClawは、オーストリアのプログラマーであるピーター・スタインバーガーが数週間前に発表したオープンソースのAIエージェントで、GitHubで150,000以上のスターを獲得するほどの人気を集めています。WhatsAppやTelegram、Discordなどのメッセージングプラットフォーム上で動作し、メール管理やカレンダー更新、ウェブ閲覧などを自動化できる点が支持されています。しかし、この急速な普及が新たなセキュリティリスクを生み出しました。
2026年1月27日から2月1日の間に、230件以上の悪意のあるスキルがClawHubとGitHubリポジトリにアップロードされたことが判明しています。これらのスキルは正規の生産性ツールを装いながら、実際には暗号通貨ウォレットの秘密鍵、APIキー、SSHクレデンシャル、ブラウザに保存されたパスワードなどを窃取するように設計されていました。初期レビューを通過した後に悪意のあるロジックを起動する手法が使われており、組織的な攻撃であることが示唆されています。
ここで重要なのは、ノアム・シュワルツCEOが指摘した「スキルのインストールは機能ではなく動作をインストールすることだ」という視点です。従来のソフトウェアセキュリティとは異なり、AIエージェントのスキルは単なるコードではなく、自律的に動作する「振る舞い」を導入します。この違いが、新しいセキュリティパラダイムを必要とする理由です。
企業でのAIエージェント採用に関する調査では、セキュリティがリーダーシップの53%、実務者の62%にとって最大の懸念事項となっています。また、42%の企業がAIエージェントを展開するために8つ以上のデータソースへのアクセスを必要としており、86%以上が既存の技術スタックのアップグレードを必要としています。このような複雑な統合環境では、サプライチェーン攻撃のリスクがさらに高まります。
Caterpillarが採用する「静的検査」アプローチは、スキルが実行される前にそのロジックと設定を分析し、インジェクションパス、安全でないツールアクセス、難読化された動作を検出します。これは、2025年のBarracuda Securityレポートで43の異なるエージェントフレームワークコンポーネントにサプライチェーン侵害による脆弱性が埋め込まれていたことが判明した背景を考えると、極めて重要な機能です。
Aliceがこのツールをオープンソースとして無料で提供している点も注目に値します。これは、AIエージェントのセキュリティが単一企業の問題ではなく、エコシステム全体で取り組むべき課題であるという認識を示しています。世界経済フォーラムの2026年サイバーセキュリティ展望によれば、ほぼすべてのCEOがAIを今年サイバーセキュリティを形成する最大の力と見なしており、約3分の1が生成AIに関連したデータ漏洩を経験しています。
今回のCaterpillarリリースは、AIエージェントの時代において、セキュリティツールもまた進化しなければならないという明確なメッセージです。OpenClawの事例が示すように、革新的な技術の普及速度は、セキュリティの準備を上回ることがあります。Caterpillarのようなツールが、開発者とセキュリティチームに「実際に何が動作しているのか」を可視化する手段を提供することで、AIエージェントの安全な採用を加速させる可能性があります。
【用語解説】
OpenClaw(旧ClawdBot、Moltbot)
オーストリアのプログラマー、ピーター・スタインバーガーが開発したオープンソースのAIエージェント。WhatsApp、Telegram、Discordなどのメッセージングプラットフォーム上で動作し、メール管理やカレンダー更新、ウェブ閲覧などのタスクを自動化する。GitHubで150,000以上のスターを獲得するほどの人気を集めている。
スキル
AIエージェントが実行できる特定の機能や動作のこと。ユーザーがインストールすることで、エージェントの能力を拡張できる。しかし、悪意のあるスキルは正規のツールを装いながら、データ窃取などの不正な動作を行う可能性がある。
静的検査
プログラムを実際に実行せずに、ソースコードや設定ファイルを分析する手法。Caterpillarはこの方法を用いて、スキルが動作する前にセキュリティリスクを検出する。
インジェクションパス
攻撃者が悪意のあるコードやコマンドをシステムに挿入できる経路のこと。AIエージェントの文脈では、スキルを通じて不正な命令が実行される可能性がある箇所を指す。
ClawHub
OpenClawのスキルが公開・共有されるプラットフォーム。GitHubと同様の役割を果たすが、2026年1月末から2月初旬にかけて、230件以上の悪意のあるスキルがアップロードされたことが判明した。
サプライチェーン攻撃
ソフトウェアやサービスの開発・配布過程に介入し、正規のコンポーネントに悪意のあるコードを埋め込む攻撃手法。AIエージェントのエコシステムでは、スキルのリポジトリが標的となる。
【参考リンク】
Alice公式サイト(外部)
GenAI時代の信頼・安全・セキュリティ企業。約10年間、30億人が使用するコミュニケーション技術を保護してきた実績を持つ。
Caterpillar公式サイト(外部)
OpenClaw向けの無料オープンソースセキュリティツール。スキルロジックと設定を静的に検査し、セキュリティ脅威を検出する。
Alice RabbitHole(外部)
数年にわたる実世界の脅威研究とシグナルから構築された敵対的インテリジェンスデータベース。Caterpillarで活用される。
【参考動画】
【参考記事】
From Clawdbot to Moltbot to OpenClaw: Meet the AI agent generating buzz and fear globally(外部)
CNBCによる記事。OpenClawがGitHubで150,000以上のスターを獲得し、急速に普及している状況を詳細に報じている。
230+ Malicious OpenClaw Skills Target Crypto & Password Data(外部)
2026年1月27日から2月1日の間に230件以上の悪意のあるスキルがアップロードされたことを報告する記事。
Malicious ClawHub Skills: 341 Threats Exposing OpenClaw Users(外部)
341件の脅威が存在することを報告。組織的な攻撃の可能性を示唆している。初期レビュー通過後に悪意のあるロジックを起動する手法を解説。
Top Agentic AI Security Threats in 2026(外部)
2025年のBarracuda Securityレポートで43の異なるエージェントフレームワークコンポーネントに脆弱性が発見されたことを報告。
New Research Uncovers Top Challenges in Enterprise AI Agent Adoption(外部)
企業におけるAIエージェント採用調査。セキュリティがリーダーシップの53%、実務者の62%にとって最大の懸念事項であることを明らかにしている。
Supply chain and AI security in the spotlight for cyber leaders in 2026(外部)
世界経済フォーラムの2026年サイバーセキュリティ展望を引用。約3分の1が生成AIに関連したデータ漏洩を経験していると報告。
【編集部後記】
AIエージェントが日常のタスクを代行してくれる未来は魅力的ですが、その「便利さ」の裏側にどんなリスクが潜んでいるか、私たちはまだ十分に理解できていないのかもしれません。スキルをインストールする際、その動作内容を確認していますか? あるいは、自社で導入を検討しているAIエージェントのセキュリティ基準はどうなっているでしょうか。
この技術が本格的に普及する前の今だからこそ、セキュリティの在り方を一緒に考えていきたいと思います。皆さんの職場や日常では、AIエージェントをどのように活用されていますか?






がもたらす「アンテザード・ソサエティ」の衝撃-300x200.png)





























