advertisements

Android AIアプリ「Video AI Art Generator & Maker」が約200万件のユーザー画像・動画を流出——認証なしで誰でも閲覧可能な状態に

[更新]2026年2月23日

2026年2月19日、Cybernewsの研究者がGoogle Play Store上のAndroid AIアプリ「Video AI Art Generator & Maker」においてユーザーデータの漏洩を発見したと報じた。原因はGoogle Cloud Storageバケットの設定ミスで、認証なしに誰でもファイルにアクセスできる状態であった。

同アプリは2023年6月13日にリリースされ、50万回以上ダウンロードされていた。漏洩したバケットには約827万件、12TB超のメディアファイルが保存されており、ユーザーがアップロードした画像157万件以上、動画38万5,000件以上が含まれていた。

開発元はトルコ登記のCodeway Dijital Hizmetler Anonim Sirketiで、UAE登記のDeep Flow Software Services Fzco名義でもアプリを公開しており、グループ全体のダウンロード数は1,000万超である。同社の別アプリ「Chat & Ask AI」でもGoogle Firebaseのバックエンド設定ミスにより、2,500万人以上のユーザーに紐づく約3億件のメッセージへのアクセスが可能であったことが報告されている。

Cybernewsの連絡後、同社はデータへのアクセスを保護した。

From: 文献リンクAndroid AI app exposes nearly 2M user images and videos: anyone can watch your videos

【編集部解説】

今回の漏洩事件は、一つのアプリの設定ミスという技術的な問題にとどまりません。急成長する消費者向けAIアプリ市場全体が抱える構造的なセキュリティ課題を象徴する事例として注目すべきものです。

まず開発元のCodewayについて補足します。同社は2020年にイスタンブールで設立されたモバイルAIアプリ開発企業で、「Wonder AI Art Generator」や「Chat & Ask AI」などのアプリを含むポートフォリオ全体で、公式サイトによれば1億5,000万以上のダウンロードを達成しています。世界のアプリパブリッシャーランキングでもトップ50に入る規模の企業であり、決して小規模な無名デベロッパーによる事故ではありません。

注目すべきは、今回の「Video AI Art Generator & Maker」の漏洩と、同社の別アプリ「Chat & Ask AI」での漏洩が、短期間に相次いで発覚した点です。後者については、セキュリティ研究者が2026年1月にGoogle Firebaseの設定ミスを発見し、約3億件のチャット履歴が閲覧可能な状態であったことが報告されています。Chat & Ask AIはOpenAI、Anthropic、GoogleなどのLLM(大規模言語モデル)に接続するラッパーアプリであり、ユーザーがAIに対して打ち明けた極めて個人的な内容が露出していた可能性があります。

技術的な背景として、「ハードコードされたシークレット」の問題に触れておきます。これはAPIキーやパスワードなどの機密情報をアプリのソースコードに直接埋め込む慣行を指します。Cybernewsが180万のAndroidアプリを分析した大規模調査では、AIアプリの72%が少なくとも1つのハードコードされたシークレットを含んでおり、FirebaseやGoogle Cloud Storageの設定不備を通じて、合計約730TBのデータが流出リスクにさらされていたことが明らかになっています。

この問題がAI分野に特に深刻な理由は、AIアプリが扱うデータの性質にあります。写真・動画編集アプリにはユーザーの顔や生活空間が映り込み、チャットアプリにはメンタルヘルスに関する相談や業務上の機密が含まれ得ます。従来のユーティリティアプリとは比較にならないほど機密性の高いデータが、クラウド上に蓄積されていくのです。

今回の事例が示すもう一つの重要な教訓は、ダウンロード数や高評価がセキュリティの担保にはならないという現実です。50万ダウンロード・4.3の高評価を誇るアプリが12TBものユーザーデータを無防備に公開していました。アプリストアの評価システムは使い勝手やデザインを反映しますが、バックエンドのセキュリティ品質までは可視化しません。

今後、EUのGDPR執行当局がこうした事例にどう対応するかも注視すべきポイントです。最大2,000万ユーロまたは年間売上高の4%という制裁金の規定が、急成長するAIアプリ開発企業に対して実効性を持つかどうかが問われることになります。

消費者向けAIアプリ市場は今後も拡大が見込まれますが、「速さ」を優先する開発文化とセキュリティのギャップは構造的な課題として残り続ける可能性があります。ユーザーとしては、AIアプリにアップロードするコンテンツが将来的に流出するリスクを常に念頭に置く必要があるでしょう。

【用語解説】

Google Cloud Storage バケット
Googleが提供するクラウドストレージサービスにおけるデータの保存単位である。設定を誤ると、認証なしに外部から誰でもデータにアクセスできる状態になる。

ハードコードされたシークレット
APIキーやパスワードなどの機密情報を、アプリのソースコードに直接埋め込む開発慣行である。セキュリティ上、最も避けるべき手法の一つとされている。

Firebase
Googleが提供するモバイル・ウェブアプリ向けのバックエンドサービス(BaaS)プラットフォームである。データベースや認証機能を簡易に実装できるが、セキュリティルールの設定不備による漏洩事故が頻発している。

GDPR(一般データ保護規則)
欧州連合(EU)が施行する個人データ保護に関する法規制である。違反した場合、最大2,000万ユーロまたは全世界年間売上高の4%のいずれか高い方の罰金が科される可能性がある。

ラッパーアプリ
他社が開発したAIモデル(ChatGPT、Claude、Geminiなど)に接続するためのインターフェースを提供するアプリの総称である。自前のAIモデルは持たず、APIを通じて大手のモデルを利用する仕組みである。

【参考リンク】

Codeway公式サイト(外部)
2020年イスタンブール設立のモバイルAIアプリ開発企業。アプリ総DL数は公式発表で1億5,000万以上。

Cybernews(外部)
リトアニア拠点のサイバーセキュリティ専門メディア。大規模なアプリセキュリティ調査やデータ漏洩報告で知られる。

【参考記事】

Android AI apps leaking Google secrets, research finds(外部)
Cybernewsによる180万Androidアプリの大規模調査。AIアプリの72%にシークレット埋め込みを確認。

AI chat app leak exposes 300 million messages tied to 25 million users(外部)
Chat & Ask AIのFirebase設定ミスによる約3億件メッセージ露出をMalwarebytesが報じた記事。

Millions of Android apps have been scanned(外部)
TechRadarによるCybernews調査の詳報。285のFirebaseインスタンスが認証なしで公開されていた事実を報道。

Top Android AI photo and video editor exposes nearly two million user images and videos(外部)
TechRadarによる本件の報道。漏洩データの内訳を詳述し、Google Playでのアプリ所在も調査している。

An AI Chat App Just Leaked 300 Million Private Conversations(外部)
研究者ハリーがFirehoundツールで200のiOSアプリを調査し103アプリで同様の設定ミスを確認した記事。

【編集部後記】

皆さんのスマートフォンには、AIを活用した写真・動画編集アプリはインストールされていますか?今回の事件で改めて浮き彫りになったのは、「ラッパーアプリ」と呼ばれるタイプのAIアプリが抱える構造的なリスクです。

ラッパーアプリとは、自前のAIモデルを持たず、OpenAIやGoogle、AnthropicなどのAPIを呼び出してインターフェースを被せただけのアプリです。Google PlayやApp Storeには、この手のアプリが無数に存在します。見分けるポイントとしては、アプリの説明文やプライバシーポリシーに「GPT」「Gemini」「Claude」などの名前が登場するかどうか、同じ開発者が「AIチャット」「AI画像」「AI動画」と類似アプリを量産していないか、サブスクリプション料金が本家の公式アプリと比べて不自然に高くないか——といった点が挙げられます。

こうしたラッパーアプリを避けた方がよいかと聞かれれば、少なくともセキュリティの観点からはリスクが高いと言わざるを得ません。第一に、今回の記事がまさに示しているように、ラッパーアプリの開発者はバックエンドのセキュリティに十分な投資をしていないケースが多いということです。第二に、ユーザーのデータが「本家のAI企業」と「ラッパーアプリ開発者」の両方を経由するため、データの経路が増え、それだけリスクも増大します。そして第三に、ChatGPT・Claude・Geminiなど本家が直接提供する公式アプリやWebサービスが存在する以上、わざわざ第三者を介す必要がないということです。

もちろん、すべてのラッパーアプリが危険というわけではありません。ただ、自分の顔が映った写真や生活空間が写った動画をアップロードする前に、「このアプリの裏側で、自分のデータはどこを通り、誰が管理しているのか」と一度立ち止まって考える習慣が、これからのAI時代には欠かせないのではないでしょうか。

投稿者アバター
TaTsu
『デジタルの窓口』代表。名前の通り、テクノロジーに関するあらゆる相談の”最初の窓口”になることが私の役割です。未来技術がもたらす「期待」と、情報セキュリティという「不安」の両方に寄り添い、誰もが安心して新しい一歩を踏み出せるような道しるべを発信します。 ブロックチェーンやスペーステクノロジーといったワクワクする未来の話から、サイバー攻撃から身を守る実践的な知識まで、幅広くカバー。ハイブリッド異業種交流会『クロストーク』のファウンダーとしての顔も持つ。未来を語り合う場を創っていきたいです。

読み込み中…

innovaTopia の記事は、紹介・引用・情報収集の一環として自由に活用していただくことを想定しています。

継続的にキャッチアップしたい場合は、以下のいずれかの方法でフォロー・購読をお願いします。