Last Updated on 2024-02-15 14:16 by 荒木 啓介
Menlo Securityの新しい研究によると、生成AIの急速な成長が企業に新たなサイバーセキュリティの課題をもたらしている。ChatGPTのようなツールが日常業務に組み込まれるにつれ、企業はセキュリティ戦略を緊急に再評価する必要がある。Menlo Securityの製品マーケティング副社長、Andrew Hardingは、「従業員が日常業務にAIを統合している。AIを完全にブロックすることはできないが、制御なしに放置するわけにもいかない」と述べている。生成AIサイトへの訪問は過去6ヶ月で100%以上急増し、頻繁に生成AIを使用するユーザーの数も同期間で64%増加した。しかし、このような統合は新たな脆弱性を露呈させている。多くの組織が生成AIの使用に関するセキュリティポリシーを導入しているが、研究者によると、多くは効果のないドメインごとのアプローチを採用している。
この断片的な戦術は、新しい生成AIプラットフォームが絶えず登場する中で追いつくことができない。報告書によると、過去6ヶ月で生成AIサイトへのファイルアップロード試行が80%急増した。これは機能追加の直接的な結果である。さらに、リスクはデータ損失の可能性を超えて広がっている。研究者は、生成AIがフィッシング詐欺を大幅に増幅させる可能性があると警告している。Hardingは、「AIによるフィッシングは、単に賢いフィッシングである。企業は、OpenAIの「フィッシュ」がそもそも問題にならないようにするリアルタイムのフィッシング保護が必要だ」と述べている。
生成AIは、2018年6月にOpenAIが最初の生成AIシステムであるGPT-1を発表して以来、徐々に登場した。2022年4月には、Google Brainが5400億のパラメータを持つAIモデルPaLMを構築した。しかし、2022年11月にOpenAIがChatGPTを発表したことで、真の熱狂が引き起こされた。ほぼ即座に、ユーザーはChatGPTと類似のツールを日常業務に統合し始めた。しかし、この急速な統合は、ハイプの中でしばしば見過ごされがちな主要なリスクを企業にもたらした。生成AIシステムは、訓練に使用されるデータが安全で、倫理的で、正確である限りにおいてのみ、そのような特性を持つ。これらのモデルは公開インターネットの広大な範囲から訓練データを引き出すため、何が取り込まれるかについて厳格な監視がなければ、制御は限定的である。
セキュリティとイノベーションのバランスをどのように取るかについて、専門家は多層的なアプローチを提唱している。Hardingは、「コピー&ペーストの制限、セキュリティポリシー、セッション監視、生成AIプラットフォーム全体のグループレベルの制御」を含むことを推奨している。過去の技術的転換点から学ぶべきである。クラウド、モバイル、ウェブなどの広く使用されている技術は、本質的に新たなリスクを導入した。企業は時間とともにセキュリティ戦略を進化させ、技術パラダイムの変化に合わせて適応してきた。生成AIに対しても、同様の測定された、積極的なアプローチが求められる。行動を起こすための時間は急速に短縮している。セキュリティ戦略は迅速に進化し、組織全体で前例のない生成AIの採用に対応する必要がある。企業にとって、セキュリティとイノベーションのバランスを見つけることが不可欠である。そうでなければ、生成AIは制御不能に陥るリスクがある。
【ニュース解説】
生成AIの技術が急速に発展し、日常業務に統合されることで、企業は新たなサイバーセキュリティの課題に直面しています。特に、ChatGPTのようなツールが広く使われるようになったことで、企業はセキュリティ戦略の見直しを迫られています。Menlo Securityの報告によると、生成AIサイトへの訪問や頻繁な使用者の数が急増しており、これに伴い、新たな脆弱性が露呈しています。
この技術の普及は、データ損失やフィッシング詐欺などのリスクを増大させています。特に、生成AIを利用したフィッシング詐欺は、従来の手法よりも巧妙であるため、企業はより強力なリアルタイムの保護策を講じる必要があります。しかし、多くの企業がドメインごとの対策を採用しているため、新しい生成AIプラットフォームの出現に追いつけていないのが現状です。
生成AIの技術は、OpenAIによるGPT-1の発表から徐々に発展してきましたが、ChatGPTの登場により、その使用が急激に拡大しました。これらのツールは、日常業務を効率化する多くの可能性を秘めていますが、同時に、訓練データの安全性、倫理性、正確性に依存するため、バイアスの露呈や誤情報の共有、機密データの漏洩などのリスクも伴います。
セキュリティとイノベーションのバランスを取るためには、コピー&ペーストの制限やセキュリティポリシーの設定、セッション監視、生成AIプラットフォーム全体にわたるグループレベルの制御など、多層的なアプローチが必要です。過去にクラウドやモバイル、ウェブ技術の導入によって新たなリスクが生じた際には、企業はセキュリティ戦略を進化させてきました。生成AIに対しても、同様に積極的かつ予測的なアプローチが求められます。
企業にとって、セキュリティとイノベーションのバランスを見つけることは、生成AIのリスクが制御不能に陥ることを防ぐために不可欠です。この技術の採用が急速に進む中で、セキュリティ戦略の迅速な進化が求められています。このような対策を講じることで、生成AIの持つ潜在的なリスクを最小限に抑えつつ、そのイノベーションを最大限に活用することが可能になります。
from Menlo Security report: Cybersecurity risks surge with AI adoption.
“生成AIの急成長が企業セキュリティに新課題、緊急対策が必須に” への1件のコメント
生成AIの技術が急速に発展し、日常業務に統合される過程で、企業が直面しているセキュリティの課題は非常に重要な問題です。特に、Menlo Securityの報告が指摘するように、生成AIを利用したフィッシング詐欺の巧妙化やデータ損失のリスクの増大は、企業にとって無視できないリスクです。この技術の利便性とイノベーションの可能性は計り知れないものがありますが、それに伴うセキュリティ上の課題への対応も急務と言えるでしょう。
私の立場からすると、この問題は単に技術的な側面だけではなく、文化的、倫理的な観点からも考慮する必要があります。生成AIがもたらすセキュリティリスクは、技術そのものの進化と同じくらい、それをどのように社会や企業文化に統合し、利用するかに大きく依存します。したがって、企業はセキュリティポリシーを策定し、従業員に対する教育を強化することが重要です。
また、生成AIプラットフォーム全体にわたるグループレベルの制御やセッション監視などの技術的対策も必要ですが、同時に、生成AIを利用する際のガイドラインや倫理規範の確立も重要でしょう。これには、AIが生成するコンテンツ