Last Updated on 2024-07-18 04:15 by 門倉 朋宏
企業のセキュリティチームは、AIアプリケーションの急速な採用に伴うリスクを軽減するために、ブロック制御、データ損失防止(DLP)ツール、ライブコーチングなどのメカニズムを導入し始めています。Netskopeの分析によると、AIアプリを使用する組織の77%がリスクを軽減するために少なくとも1つ(多くの場合は複数)のGenAIアプリの使用を制限するブロック/許可ポリシーを使用しています。これは、昨年のNetskopeの研究で報告された53%よりも顕著に高い数値です。また、組織の42%がDLPツールを使用して、ユーザーがGenAIツールに送信できる内容を制御しており、これは2023年6月の24%からの増加です。ライブコーチング制御の使用も人気を集めており、31%の組織がユーザーの行動をガイドするコーチングダイアログを使用してGenAIアプリを制御するポリシーを持っています。
Netskopeの調査では、企業の96%がAIツールを使用しており、その使用は急速に増加しています。平均的な組織は現在、1年前と比較して3倍の数のGenAIアプリを使用し、ほぼ3倍のユーザーがそれらを利用しています。2024年6月の時点で組織が使用しているGenAIアプリの中央値は9.6であり、昨年は3でした。最も人気のあるGenAIアプリはChatGPTであり、Grammarly、Microsoft Copilot、Google Gemini、Perplexity AIなどが続きます。
Netskopeは、企業がGenAIサービスからのデータに関連するリスクに即座に焦点を当てていないことも発見しました。多くの組織は、AIツールが生成するデータをどのように使用し、取り扱うべきかを指導する適切な使用ポリシーを持っていますが、AIツールが事実に反するデータや偏見を持ったデータ、操作された結果、著作権データ、完全に創造された応答を出力することに関連する潜在的なセキュリティおよび法的リスクに対処するメカニズムはほとんどありません。
【ニュース解説】
企業がAIアプリケーションのリスクを軽減するために積極的な動きを見せ始めています。特に、ChatGPTの公開から18ヶ月が経過し、AI技術の急速な採用が進む中で、企業のセキュリティチームは、機密データの偶発的な露出や漏洩を防ぐために、ブロック制御、データ損失防止(DLP)ツール、ライブコーチングなどのメカニズムを導入しています。
Netskopeの分析によると、AIアプリを使用する組織の77%がリスクを軽減するために、1つ以上のGenAIアプリの使用を制限するポリシーを採用しています。これは昨年の調査結果と比較して大幅に増加しています。また、組織の42%がDLPツールを使用し、ユーザーがGenAIツールに送信する情報を制御しています。ライブコーチング制御も普及しており、31%の組織がユーザーの行動を指導するためにこれを利用しています。
このような動きは、企業がAIツールの使用を急速に増やしている現状に対応するためのものです。Netskopeの調査では、企業の96%が何らかの形でGenAIアプリを使用しており、その数は1年前と比較して3倍に増加しています。最も人気のあるGenAIアプリはChatGPTであり、その他にもGrammarly、Microsoft Copilot、Google Geminiなどがあります。
しかし、企業がGenAIサービスから受け取るデータに関連するリスクに対する対策はまだ十分ではありません。多くの組織は適切な使用ポリシーを設けていますが、AIツールが不正確なデータや偏見を持ったデータ、操作された結果、著作権データ、完全に創造された応答を出力するリスクに対処するためのメカニズムはほとんどありません。
この状況は、企業がAI技術の利用におけるセキュリティリスクを認識し、それに対処するための措置を講じ始めていることを示しています。しかし、AIから得られるデータの取り扱いに関するリスクに対する認識と対策は、今後さらに強化される必要があります。企業は、AI技術の利用における潜在的なリスクを最小限に抑えるために、適切なガイドラインの設定、ユーザー教育、そして技術的な対策の導入を進めることが求められます。これにより、AI技術のポジティブな側面を最大限に活用しつつ、セキュリティやプライバシーの保護を確保することが可能になります。