innovaTopia

ーTech for Human Evolutionー

IBMが提案する生成型AIセキュリティ対策、企業のリスク管理に革新

IBMが提案する生成型AIセキュリティ対策、企業のリスク管理に革新 - innovaTopia - (イノベトピア)

Last Updated on 2024-07-05 09:04 by admin

【ダイジェスト】

人工知能(AI)の進化に伴い、特に生成型AI(gen AI)のセキュリティは、企業にとって急速に重要な課題となっています。IBMはこの新たなリスクに対処するためのセキュリティフレームワークを導入し、顧客がgen AIのリスクに対応できるよう支援しています。

IBMの「生成型AIのセキュリティを確保するためのフレームワーク」は、データ収集から本番環境へのデプロイまで、gen AIワークフロー全体を保護することに焦点を当てています。このフレームワークは、gen AIを取り扱う際に組織が直面する可能性のあるセキュリティ脅威についてのガイダンスを提供し、実装すべき主要な防御アプローチに関する推奨事項を提供します。

IBMは、モデルやガバナンス機能を含むwatsonXポートフォリオを通じて、過去1年間でgen AIの能力を拡大してきました。IBMセキュリティの新興セキュリティ技術プログラムディレクターであるRyan Dougherty氏は、最も可能性の高い攻撃と、組織が焦点を当て、実装するために最も重要だと考える防御アプローチを詳細にまとめたと述べています。

gen AIのセキュリティにおいては、データ、モデル、そして使用法の3つの核となる原則を確保することが重要です。これらの原則の基盤となるのは、プロセス全体を通じて安全なインフラストラクチャとAIガバナンスを確保することです。

IBMセキュリティのフェロー兼CTOであるSridhar Muppidi氏は、アクセス制御やインフラストラクチャのセキュリティなどの基本的なデータセキュリティ実践が、gen AIにおいても他のIT使用と同様に重要であると説明しています。しかし、データセットに偽のデータを追加して不正確な結果をもたらすデータポイズニングや、バイアスとデータの多様性など、gen AIに特有のリスクも存在します。Muppidi氏は、データドリフトやデータプライバシーもgen AI特有の属性を持つリスクであり、保護が必要だと指摘しています。

また、ユーザーがプロンプトを介してモデルの出力を悪意を持って変更しようとするプロンプトインジェクションも、新たなリスク領域として浮上しており、組織は新しいコントロールを導入する必要があります。

IBMの生成型AIのセキュリティを確保するためのフレームワークは、単一のツールではなく、gen AIワークフローを保護するためのガイドラインとツール、実践の提案のセットです。また、gen AIを保護するために必要なツールの種類を定義する単一の用語も存在しません。生成型AIとそれに関連するリスクの出現により、Machine Learning Detection and Response(MLDR)、AI Security Posture Management(AISPM)、Machine Learning Security Operation(MLSecOps)など、セキュリティの新しいカテゴリが登場しています。

MLDRはモデルをスキャンし、潜在的なリスクを特定することに関連しており、AISPMはCloud Security Posture Management(CSPM)の概念に似ており、安全なデプロイメントを持つために適切な構成とベストプラクティスを持つことについてです。Muppidi氏は、「DevOpsにセキュリティを加えてDevSecOpsと呼ぶように、MLSecOpsは設計から使用までのエンドツーエンドのライフサイクルであり、セキュリティの注入を提供する」と述べています。

VentureBeatの使命は、変革的な企業技術について知識を得て、取引を行う技術意思決定者のためのデジタルタウンスクエアであることです。

【ニュース解説】

生成型AI(gen AI)は、テキスト、画像、音声などの新しいコンテンツを自動的に生成する能力を持つ人工知能技術です。この技術の進化により、企業や組織は新たな価値を創出できる一方で、セキュリティ上のリスクも増大しています。IBMは、これらのリスクに対応するためのセキュリティフレームワークを提案しており、gen AIの安全な利用を支援することを目指しています。

IBMが提案するセキュリティフレームワークは、データ収集から本番環境へのデプロイメントに至るまでのgen AIワークフロー全体をカバーしています。このフレームワークは、gen AIを取り扱う際に直面する可能性のあるセキュリティ脅威に対するガイダンスと、実装すべき防御策を提供します。

具体的には、データのセキュリティ、モデルのセキュリティ、使用法のセキュリティの3つの主要な領域に焦点を当てています。これらの領域を支えるのは、プロセス全体にわたって安全なインフラストラクチャとAIガバナンスを確保することです。

gen AIにおけるセキュリティの課題は、一般的なITセキュリティと共通する部分もありますが、独自のリスクも存在します。例えば、データポイズニングは、データセットに意図的に誤った情報を加えることで、AIモデルが不正確な結果を出力するリスクです。また、バイアスやデータの多様性の欠如も、gen AIにおける特有の問題です。データドリフトやデータプライバシーも、gen AIに特有のリスクとして挙げられます。

さらに、プロンプトインジェクションという新たなリスクがあり、これはユーザーがAIモデルに悪意のある入力を行い、出力を不正に操作しようとする行為です。これらのリスクに対処するためには、新しい種類のセキュリティ対策が必要とされます。

IBMのフレームワークは、単一のツールではなく、gen AIを保護するための一連のガイドラインとツール、実践の提案を組み合わせたものです。新たに登場しているセキュリティカテゴリには、Machine Learning Detection and Response(MLDR)、AI Security Posture Management(AISPM)、Machine Learning Security Operation(MLSecOps)などがあります。これらは、AIモデルのリスクを特定したり、セキュリティのベストプラクティスを適用したりするための新しい手法です。

このような取り組みは、gen AIの安全な利用を促進し、企業がAIの力を最大限に活用するための信頼性の高い基盤を提供することを目的としています。しかし、新しい技術の導入には常にリスクが伴うため、セキュリティ対策の進化と適応が不可欠です。IBMのフレームワークは、これらのリスクに対する意識を高め、より安全なAI環境を構築するための一歩となるでしょう。

from Exclusive: What will it take to secure gen AI? IBM has a few ideas.

ホーム » AI(人工知能) » AI(人工知能)ニュース » IBMが提案する生成型AIセキュリティ対策、企業のリスク管理に革新