最新ニュース一覧

人気のカテゴリ


重大セキュリティ欠陥発覚、顧客AIモデルへの不正アクセス可能に

重大セキュリティ欠陥発覚、顧客AIモデルへの不正アクセス可能に - innovaTopia - (イノベトピア)

Last Updated on 2024-05-26 07:44 by TaTsu

サイバーセキュリティ研究者たちは、AI-as-a-serviceプロバイダーであるReplicateにおいて、顧客の独自AIモデルや機密情報にアクセスできる可能性のある重大なセキュリティ上の欠陥を発見した。この脆弱性の悪用により、Replicateのプラットフォーム顧客のAIプロンプトと結果への不正アクセスが可能になると、クラウドセキュリティ企業Wizが報告している。

AIモデルは通常、任意のコード実行を可能にする形式でパッケージされており、攻撃者はこれを悪用して悪意のあるモデルを介してクロステナント攻撃を実行できる。Replicateは、Cogというオープンソースツールを使用して機械学習モデルをコンテナ化し、自己ホスト環境またはReplicateにデプロイする。

Wizは、Replicateに悪意のあるCogコンテナをアップロードし、サービスのインフラストラクチャ上で特権を持つリモートコード実行を達成した。攻撃技術は、Google Cloud Platform上にホストされているKubernetesクラスタ内のRedisサーバーインスタンスに関連付けられたTCP接続を利用して、任意のコマンドを注入することにより実現された。

さらに、中央集権型のRedisサーバーが、複数の顧客リクエストとその応答を管理するキューとして使用されているため、プロセスを改ざんして他の顧客のモデルの結果に影響を与える悪意のあるタスクを挿入することで、クロステナント攻撃を容易にすることができた。

この脆弱性は2024年1月に責任を持って開示され、Replicateによって対処された。顧客データが実際に悪用された証拠はない。

【編集者追記】用語解説

  1. AI-as-a-Service(AIaaS):人工知能(AI)の機能をクラウドサービスとして提供するビジネスモデルのことです。
  2. Replicate:AIモデルをクラウド上で管理・デプロイできるプラットフォームを提供するAIスタートアップ企業
  3. Cog:機械学習モデルを標準化されたDockerコンテナにパッケージ化するためのオープンソースツール
  4. コンテナ:アプリケーションとその実行に必要な環境を1つにまとめたソフトウェアの単位。移植性が高く、効率的なリソース利用が可能
  5. Wiz:クラウドインフラストラクチャのセキュリティを専門とするサイバーセキュリティ企業

【参考リンク】
Replicate(外部)

【関連記事】

サイバーセキュリティー関連の記事をinnovaTopiaでもっと読む

【ニュース解説】

AI-as-a-serviceプロバイダーであるReplicateにおける重大なセキュリティ上の欠陥が発見されました。この脆弱性は、攻撃者が顧客の独自AIモデルや機密情報に不正アクセスできる可能性を持っていました。クラウドセキュリティ企業Wizによる報告では、この問題はAIモデルが任意のコード実行を可能にする形式でパッケージされていることから生じています。Replicateは、Cogというオープンソースツールを用いてこれらのモデルをコンテナ化し、デプロイしていましたが、Wizは悪意のあるCogコンテナを作成し、Replicateのインフラストラクチャ上でリモートコード実行を達成しました。

この攻撃技術は、Google Cloud Platform上にホストされているKubernetesクラスタ内のRedisサーバーインスタンスに関連付けられたTCP接続を利用し、任意のコマンドを注入することで実現されました。中央集権型のRedisサーバーが複数の顧客リクエストとその応答を管理するキューとして使用されていたため、プロセスを改ざんして他の顧客のモデルの結果に影響を与える悪意のあるタスクを挿入することが可能でした。

この脆弱性の発見と開示は、AI-as-a-serviceプロバイダーが直面するセキュリティ上のリスクを浮き彫りにします。AIモデルはコードであり、不正なソースからのモデルは悪意のある行動を引き起こす可能性があるため、これらのサービスは特に脆弱性の悪用に対して脆弱です。攻撃者がプライベートAIモデルや機密データにアクセスできると、企業の知的財産や顧客の個人情報が危険にさらされる可能性があります。

この事件は、AI-as-a-serviceプロバイダーだけでなく、AI技術を利用するすべての企業にとって、セキュリティ対策の重要性を再認識させるものです。特に、外部から提供されるAIモデルを使用する際には、その安全性を確認し、適切なセキュリティ対策を講じることが不可欠です。また、このような脆弱性が発見された場合には、迅速に対応し、関係者に通知することが重要です。

長期的には、AI技術の安全な使用を保証するために、業界全体でのセキュリティ基準の策定や、AIモデルのセキュリティ評価方法の開発などが求められます。このような取り組みは、AI技術のポテンシャルを最大限に活用しつつ、リスクを最小限に抑えるために不可欠です。

from Experts Find Flaw in Replicate AI Service Exposing Customers’ Models and Data.


読み込み中…
読み込み中…