Last Updated on 2025-01-02 18:15 by admin
2024年12月31日、Dark Reading誌に掲載された2025年のAIセキュリティトレンド予測の要点をお伝えします。OutSystemsがCentientに委託した調査によると、1,700人のIT専門家の81%が現在、コーディングとソフトウェア開発に生成AIを使用しています。さらに74%が今後12ヶ月で10以上のAIを活用したアプリを開発する予定です。
主要な専門家の見解
Digital.ai CEO Derek Holt氏は、AIコード生成の品質がトレーニングデータに大きく依存することを指摘しています。Darktrace戦略的サイバーAI担当VP Nicole Carignan氏は、シャドーAIの急増による新たなリスクを警告。SlashNext Email Security+ Field CTO Stephen Kowski氏は、AIと人間の適切なバランスの重要性を強調しています。
from:6 AI-Related Security Trends to Watch in 2025
【編集部解説】
AIコーディングアシスタントの主流化は、開発現場に大きな変革をもたらすことが予想されています。Stanford大学の2023年の研究によると、AIアシスタントへの過度な依存は、むしろバグの多い、セキュリティ的に脆弱なコードを生み出す傾向があることが判明しています。
特に注目すべきは、96%の開発チームが既にAIアシスタントを使用しており、その80%がセキュリティポリシーを迂回してでも利用を継続していることです。この現状は、AIツールの利便性と安全性のバランスをどう取るかという新たな課題を提起しています。
シャドーAIの問題は、EU AI法の施行を控える中で、より深刻な課題となっています。特に、従業員による未承認のAIツール使用は、データ漏洩やコンプライアンス違反のリスクを高めています。
セキュリティの観点から見ると、AIは脅威データの処理とパターン認識において優れた能力を発揮します。しかし、Qlikの調査で明らかになったように、上級管理職の37%、中間管理職の42%がAIを信頼していないという結果は、人間の監督の重要性を示唆しています。
オープンソースソフトウェアの脆弱性を狙った攻撃については、AIツールを使用した自動的なエクスプロイトコード生成が新たな脅威として浮上しています。これは特に、クラウドサービスやVPN、コラボレーションツールといったリモートワークインフラストラクチャに対する攻撃の増加につながる可能性があります。
長期的な視点では、xOps(DevSecOps、DataOps、ModelOps)の統合的なアプローチが重要になってきます。これは、AIを活用したアプリケーション開発において、品質、セキュリティ、サポート性を確保するための新しいベストプラクティスとなるでしょう。
また、5Gネットワークの展開に伴い、接続デバイスの増加によるセキュリティリスクも高まっています。特に、初期ブロードキャストメッセージの認証欠如やスペクトラムスライシング、サイレントダウングレードなどの脆弱性が懸念されています。
このような状況下で、組織には「完璧な信頼性」を求めるのではなく、堅固な検証システムと人間による適切な監督のバランスを取ることが求められています。