2025年8月5日、セキュリティ研究機関Wiz Researchは、NvidiaのAI向けオープンソースプラットフォーム「Triton推論サーバー」に存在する3つの脆弱性について報告した。
これらはPythonバックエンドに存在するもので、脆弱性番号CVE-2025-23320(深刻度7.5)、CVE-2025-23319(深刻度8.1)、CVE-2025-23334(深刻度5.9)が割り当てられている。連鎖的に悪用されるとリモートコード実行に至り、システムが侵害される可能性がある。Nvidiaは、2025年8月4日公開のバージョン25.07でこれらの脆弱性を修正したと発表しており、これ以前の全バージョンが影響を受ける。Wiz Researchは全ユーザーに最新バージョンへの更新を推奨している。Nvidiaは2025年初頭、Tritonの後継としてDynamoをローンチした。
From:Chained bugs in Nvidia’s Triton Inference Server lead to full system compromise
【編集部解説】
AIを社会で活用することが当たり前になった今、その頭脳を動かす”エンジンルーム”とも言える部分に、システム全体を危険にさらす重大な脆弱性が発見されました。今回のニュースの主役は、AIチップの巨人Nvidiaが提供する「Triton推論サーバー」です。これは、学習済みのAIモデルを実際にサービスとして動かすための基盤(プラットフォーム)であり、世界中の多くの企業で採用されています。このニュースは、AIサービスの裏側で今何が起きているのか、そして私たちが享受するAI技術がどのようなリスクの上に成り立っているのかを浮き彫りにしています。
今回の攻撃の核心は、「脆弱性の連鎖(Bug Chaining)」と呼ばれる巧妙な手口にあります。これは、一つひとつは致命的ではないかもしれない、小さなセキュリティ上の欠陥を複数組み合わせ、最終的にシステムの完全な乗っ取りという大きな目的を達成する攻撃手法です。まるでドミノ倒しのように、最初の小さなきっかけが、連鎖的に重大な結果を引き起こします。具体的には、①巨大なデータを送って意図的にエラーを発生させ、システムの内部情報(共有メモリの鍵)を盗み見る、②盗んだ鍵を使って、本来はアクセスできないはずの領域に侵入する、というステップが報告されています。
特に狙われたのが、汎用性の高い「Pythonバックエンド」でした。Tritonサーバーは様々なAI開発言語(フレームワーク)に対応するため、共通の窓口としてPythonバックエンドを用意しています。この「誰でも使いやすい」という利便性が、皮肉にも攻撃者にとって格好の侵入口となってしまいました。多くの扉に対応できるマスターキーが存在すれば、そのマスターキーの管理が極めて重要になるのと同じ構図です。
この脆弱性がもし悪用されれば、その影響は計り知れません。企業の財産であるAIモデルが盗まれたり、個人情報などの機密データが漏洩したりする直接的な被害はもちろん、さらに深刻なのは「AIの判断が汚染される」リスクです。例えば、医療診断AIの判断を誤らせたり、金融システムの不正検知を回避させたり、あるいは社会を混乱させる偽情報を生成させたりと、私たちの生活の根幹を揺るがしかねない事態に発展する可能性を秘めています。これは単なるサイバー攻撃に留まらず、AI技術そのものへの信頼を損なう「AIサプライチェーン攻撃」の現実的な脅威と言えるでしょう。
今回の事案は、私たちに「多層防御(Defense-in-Depth)」の重要性を改めて突きつけています。強固な城壁を一つだけ作るのではなく、城壁、堀、監視塔といった複数の防御策を組み合わせるように、システム全体を層状に保護する考え方です。AIという強力な技術の恩恵を安全に享受し続けるためには、アプリケーションからインフラまで、あらゆる階層でセキュリティを考慮することが不可欠です。
Nvidiaはすでに対策済みのバージョンを公開し、迅速に対応しました。また、後継製品「Dynamo」の存在も明らかになっています。これは単なる性能向上だけでなく、今回のようなセキュリティ上の課題を踏まえた、より堅牢な設計への進化が期待されます。
【用語解説】
- リモートコード実行 (RCE)
インターネットなどのネットワークを通じて、遠隔にあるコンピューターのプログラムを不正に実行させるサイバー攻撃の一種である。成功すると、攻撃者はシステムへの侵入、データの窃取、マルウェアの設置など、そのコンピューター上で任意の操作が可能となる。 - バックエンド (Backend)
ウェブサイトやアプリケーションにおいて、ユーザーの目には直接触れないサーバー側の処理やデータベースなど、裏側で動作するシステム全般を指す。今回のニュースでは、Tritonサーバーが様々なAIモデルを動かすために利用する、特定のフレームワークに対応した処理部分のことである。 - 脆弱性の連鎖 (Bug Chaining)
単独では大きな脅威とならない複数の脆弱性を、攻撃者が意図的に連鎖させて悪用する手法である。一つ目の脆弱性を突破口として内部に侵入し、次の脆弱性を利用して権限を拡大するといったように、ドミノ倒しのように段階的に攻撃を進め、最終的にシステムの完全な乗っ取りなど、深刻な被害をもたらす。 - 多層防御 (Defense-in-Depth)
単一のセキュリティ対策に依存せず、複数の異なる防御層を重ねてシステム全体を保護するセキュリティ戦略である。例えば、外部からの侵入を防ぐファイアウォール、内部の不審な動きを検知するシステム、データの暗号化などを組み合わせることで、いずれかの層が突破されても被害を最小限に食い止めることを目的とする。 - AIサプライチェーン
AIモデルが開発され、学習し、最終的にサービスとしてユーザーに提供されるまでの一連の流れ(企画、データ収集、学習、展開、運用)を指す。このチェーンのいずれかの段階で悪意のある操作や欠陥が紛れ込むと、AI全体の信頼性や安全性に影響が及ぶリスクがある。 - CVE (Common Vulnerabilities and Exposures)
個別に発見された情報セキュリティ上の脆弱性を識別するために付与される、世界共通の識別番号である。これにより、特定の脆弱性に関する情報を組織間で正確に共有することが可能となる。
【参考リンク】
【参考動画】
【参考記事】
【編集部後記】
今回のニュースは、AI技術の進化と、その裏側にあるセキュリティの課題という、切っても切れない関係性を私たちに示してくれたように思います。
AIが提供する「便利さ」と、それを支える「安全性」。この二つのバランスを、私たちはどう考えていけば良いのでしょうか。皆さんが日々利用するAIサービス、あるいは開発に携わるシステムについて、改めてその安全という側面に光を当ててみると、新しい発見があるかもしれません。