OpenAIが2025年10月30日に発表した「Aardvark」は、GPT-5によって駆動されるエージェント型セキュリティ研究者です。
現在プライベートベータで利用可能であり、ソースコードリポジトリを継続的に分析して脆弱性を特定し、エクスプロイト可能性を評価し、重大度を優先順位付けし、パッチを提案します。
Aardvarkはコミットをスキャンして脆弱性を検出し、隔離されたサンドボックス環境でバリデーションし、OpenAI Codexと統合してパッチを生成しています。Aardvarkは数ヶ月間OpenAIの内部コードベースおよび外部アルファパートナーのコードベースで稼働しており、「黄金の」リポジトリでのベンチマークテストでは既知および合成的に導入された脆弱性の92%を特定しました。
オープンソースプロジェクトにも適用され、10個のCVE識別子が付与された脆弱性を発見・開示しています。2024年には40,000以上のCVEが報告されており、約1.2%のコミットがバグを導入する現状があります。
OpenAIは外部協調開示ポリシー(Outbound Coordinated Disclosure Policy)を更新し、選定された非営利オープンソースリポジトリに対して無料のスキャンを提供する計画があります。
From:  Introducing Aardvark: OpenAI’s agentic security researcher
Introducing Aardvark: OpenAI’s agentic security researcher
【編集部解説】
OpenAIが発表した「Aardvark」は、単なるセキュリティツールではなく、AI時代のソフトウェア防御哲学の大きな転換を意味しています。従来のセキュリティ分析は、ファジングやコード静的解析といった機械的な手法に依存していました。しかし、Aardvarkは人間のセキュリティ研究者の思考プロセスをそのまま模倣し、コードを「読む」「分析する」「テストする」というアプローチを取ります。これは推論能力に優れたGPT-5を活用することで初めて実現できる、新しいセキュリティパラダイムといえるでしょう。
ベンチマークテストで92%の検出率を達成したという数字は、従来のスタティック解析ツールに比べて格段に優れた性能を示唆しています。特に注目すべきは、既知の脆弱性だけでなく、「合成的に導入された脆弱性」も同等の精度で検出したという点です。これは、Aardvarkが単なるシグネチャ検索ではなく、コードの本質的なロジックエラーを理解できることを示しています。
Aardvarkが数ヶ月間の稼働で10件のCVE識別子を獲得したというのは、その実用性を物語る成果です。オープンソースコミュニティへの無償提供計画も、セキュリティの民主化という視点から重要な発表といえます。しかし同時に、AIが脆弱性を自動発見・修正する能力を持つことで、攻撃者が逆にそれを悪用するリスクも生まれます。OpenAIが協調開示ポリシーを「開発者フレンドリー」に修正したのは、このような懸念に対する配慮と考えられます。
一方、2024年に40,000以上のCVEが報告され、毎年発見される脆弱性が指数関数的に増加している現実を踏まえると、人間だけでこれを対応することは物理的に不可能に近づいています。Aardvarkのようなエージェント型AIは、この「ディフェンダーの絶望的な状況」を改善する現実的なソリューションとなり得るのです。
技術的には、Aardvarkの多段階パイプライン(分析→スキャン→バリデーション→パッチング)の設計が秀逸です。単に脆弱性を見つけるだけでなく、隔離されたサンドボックス環境で実際の悪用可能性を検証し、自動生成したパッチを人間がレビューできる形で提出する。この「人間とAIの協働」モデルは、完全自動化の危険性を避けながら、効率性を最大化する現実的なアプローチといえます。
規制の観点からも、このツールの登場は重要な岐路を示唆しています。サイバーセキュリティの責任が企業にある以上、Aardvarkのような「防御者を支援するAI」の活用は、今後のコンプライアンス標準に組み込まれていく可能性が高いです。既にテクノロジー企業やOpenAIのパートナー企業では導入が進んでいるでしょう。
しかし最も重要な問いは、このような強力なセキュリティAIが「どこまで開放されるのか」という点にあります。プライベートベータという限定的な段階を経ているのは、おそらく悪意ある活用を防ぎながら、技術の安定性と効果を検証するためです。未来を知りたい読者の皆さんにとって、Aardvarkの広がりは、セキュリティと自動化、そして規制のバランスが今後どう取られるのかを見極める、重要な指標となるはずです。
【用語解説】
エクスプロイト可能性(Exploitability)
脆弱性が実際に攻撃者によって悪用される現実的な可能性を示す指標。CVSS(Common Vulnerability Scoring System)では「攻撃ベクトル」「攻撃の複雑さ」「権限要件」などの要素を総合して算出される。セキュリティ評価やリスク優先度付けの際に用いられる専門用語。
CVE(Common Vulnerabilities and Exposures)
公開されている脆弱性に付与される一意の識別番号。セキュリティ業界における標準的な脆弱性管理システムであり、CVEが与えられることは脆弱性が公式に認識・記録されたことを意味する。
ファジング
ソフトウェアテストの手法の一つ。予測不可能なデータを大量に入力して、プログラムがどう反応するかを観察し、脆弱性やバグを発見する。
ソフトウェア構成分析(SCA)
オープンソースライブラリなどの依存関係を分析し、既知の脆弱性が含まれていないかをチェックする手法。既知脆弱性の検出に特化している。
協調開示(Coordinated Disclosure)
脆弱性発見者が、詳細を公開する前に企業に報告し、企業がパッチを準備する期間を設ける責任あるセキュリティ情報開示プロセス。公開開示との違いは、事前通知と修正期間の確保にある。
外部協調開示ポリシー(Outbound Coordinated Disclosure Policy)
OpenAIが定める脆弱性情報の開示ガイドラインの一つで、同社のAIシステムが外部プロジェクトで脆弱性を発見した際の報告手順を規定するもの。第三者の開発者や組織と協調し、修正の準備期間を確保した上で責任ある形で開示を行う。従来の「責任ある開示(Responsible Disclosure)」を拡張し、AIによる自動発見にも対応した「開発者フレンドリー」なポリシーとして2025年に改定された。
【参考リンク】
OpenAI 公式サイト(外部)
GPT-5やAardvarkなどの先進的なAIモデルとツールを開発・提供。
GitHub(外部)
開発者向けバージョン管理プラットフォーム。Aardvarkと統合。
OpenAI Codex(外部)
コード生成と理解を得意とするAIモデル。パッチ自動生成に活用。
【参考動画】
【参考記事】
OpenAI Unveils ‘Aardvark,’ A GPT-5-Powered Agent For Autonomous Cybersecurity Research(外部)
Aardvarkの技術的特性と実際の導入事例を詳しく解説。92%の検出率を実現。
OpenAI releases ‘Aardvark’ security and patching model(外部)
従来のセキュリティツールとの差別化ポイントや、2024年CVE数と意義を分析。
Meet Aardvark, OpenAI’s in-house security agent for code analysis and patching(外部)
Aardvarkのビジネスインパクトと市場への影響。プライベートベータ計画。
【編集部後記】
Aardvarkのようなセキュリティエージェントの登場は、ソフトウェア開発の現場でどんな変化をもたらすのか。AIが脆弱性を自動で見つけ、パッチを提案する時代が本当に来たのか。あなたの職場では、こうしたツールの活用について、まだ本格的な検討がされていないかもしれません。
でも、既に動きを始めた企業との間には、セキュリティ対応力の差が広がり始めています。技術進化と組織の準備が噛み合う瞬間を、ぜひ自分の目で見極めてみてください。未来のセキュリティは、決して理系エンジニアだけの領域ではなくなるでしょう。
























