Microsoftは2025年1月、同社の生成AI製品「Azure OpenAI Service」を不正利用して有害コンテンツを作成していた海外のハッキンググループを提訴しました。
事案の詳細
2024年7月、Microsoftのデジタル犯罪対策部門(DCU)が不正アクセスを発見。3名の主犯と7名の共犯者が関与し、中国、イラン、北朝鮮、ロシアの国家グループによるAIサービスの悪用も確認されました。ペンシルベニア州とニュージャージー州の米国企業から盗まれたAPIキーを使用し、「de3u」と「oaiリバースプロキシ」を使用してDALL-Eの安全対策を回避。裁判所命令により犯罪インフラの中心「aitism[.]net」を差し押さえています。
from:Microsoft Sues Hacking Group Exploiting Azure AI for Harmful Content Creation
【編集部解説】
今回のハッキング手法は、単なるAPIキーの窃取にとどまらない高度な技術が使用されています。攻撃者らは「de3u」と呼ばれるフロントエンドツールと「oaiリバースプロキシ」を組み合わせ、Cloudflareトンネルを経由してAzure OpenAIサービスに不正アクセスする仕組みを構築しました。
これは生成AIの安全性対策における新たな課題を浮き彫りにしています。特に、プロンプトフィルタリングを回避する手法が開発されたことは、AIの安全性制御の難しさを示しています。
産業への影響
この事件は、生成AI時代におけるサイバーセキュリティの新しい局面を示しています。従来型のサイバー攻撃と異なり、AIモデルの制御を迂回して有害コンテンツを生成するという、より洗練された手法が用いられています。
特に企業にとって重要な点は、正規のAPIキーが悪用されるリスクです。今回の事件では、ペンシルベニア州とニュージャージー州の企業から窃取されたAPIキーが使用されました。
法的影響
Microsoftは今回、コンピュータ不正アクセス禁止法(CFAA)、デジタルミレニアム著作権法(DMCA)、組織的犯罪処罰法(RICO法)違反で提訴しています。これは生成AI時代における法的対応の先例となる可能性が高いでしょう。
今後の展望
この事件を受けて、生成AI業界全体でセキュリティ対策の見直しが進むと予想されます。特にAnthropicやAWS Bedrock、Google Cloud Vertex AI、Mistral、OpenAIなど、他のAIサービスプロバイダーも同様の攻撃を受けているとされており、業界全体での対策が必要となっています。
読者の皆様へ
企業でAzure OpenAIサービスを利用されている方々は、APIキーの管理を今一度見直すことをお勧めします。また、生成AIの利用においては、出力結果の検証プロセスを確立することが重要です。
今回の事件は、生成AIの発展に伴う新たなセキュリティリスクを示すものですが、同時にMicrosoftのような大手テクノロジー企業が積極的に法的対応を行う姿勢を示したという点で、生成AI技術の健全な発展に向けた重要な一歩とも言えるでしょう。