AIディープフェイク被害がインド女性を襲う|nudifyアプリ悪用でOpenAI第2市場に影

[更新]2025年11月5日20:34

 - innovaTopia - (イノベトピア)

Rati FoundationとTattleが2025年11月2日に発表した報告書によると、インドでAI技術を使った女性へのオンライン嫌がらせが増加している。

インドはOpenAIにとって世界第2位の市場であり、AI技術が職業を超えて広く採用されているが、その一方でnudifyアプリなどのAIツールを使った女性の画像操作が深刻化している。

オンライン虐待被害者向けヘルプラインに報告されるケースの約10%がこれらのAI生成画像を含む。ボリウッド歌手Asha Bhosleや、ジャーナリストRana Ayyubなどの著名人も被害に遭っている。

報告書は、AI生成コンテンツの大部分が女性とセクシャルマイノリティをターゲットにしていると指摘する。ムンバイ在住の法学部卒業生Gaatha Sarvaiyaら多くの女性が、ディープフェイク被害を恐れてソーシャルメディアへの投稿を控えるようになっている。AppleとMetaは最近nudifyアプリの拡散を制限する措置を講じたが、プラットフォームの対応は不十分だと報告されている。

From: 文献リンク‘The chilling effect’: how fear of ‘nudify’ apps and AI deepfakes is keeping Indian women off the internet

【編集部解説】

インドがOpenAIにとって世界第2位の市場となり、AI技術の急速な普及が進む一方で、その技術が女性への嫌がらせという新たな脅威を生み出しています。この記事が報じる問題は、技術進化の光と影を鮮明に映し出すものです。

インドでは8億人以上がインターネットを利用しており、OpenAIのユーザー数は過去1年で3倍に増加しました。こうした技術の民主化は本来、人々の創造性や生産性を高めるはずでした。しかし同時に、AI技術を悪用した「nudifyアプリ」と呼ばれるツールが急速に拡散しています。

nudifyアプリは、通常の写真からAIを使って衣服を除去し、あたかも裸であるかのような画像を生成する技術です。2019年頃から存在していましたが、生成AI技術の進化により、その精度と拡散速度は飛躍的に向上しました。2023年初頭からソーシャルメディア上でのnudifyアプリの広告リンク数が2400%増加したという調査結果もあります。

Rati FoundationとTattleが発表した報告書によれば、オンライン虐待被害者向けヘルプラインに報告されるケースの約10%がこれらのAI生成画像を含んでいます。報告書が指摘する最も深刻な点は、「AI生成コンテンツの大部分が女性とセクシャルマイノリティをターゲットにしている」という事実です。

具体的な被害事例として、ローン申請時に提出した写真がnudifyアプリで操作され、ポルノ画像に合成されて電話番号とともにWhatsApp上で拡散されたケースが報告されています。被害女性は見知らぬ人物から性的な電話やメッセージを大量に受け、「何か汚いことに関与していたかのように恥じて社会的に印を付けられた」と感じたと証言しています。

この問題の影響は著名人にも及んでいます。ボリウッドの伝説的歌手Asha Bhosleは、彼女の肖像と声がAIでクローン化されYouTube上で流通する被害に遭いました。政治・警察腐敗を調査するジャーナリストRana Ayyubは、ドキシングキャンペーンの標的となり、ディープフェイクの性的画像がソーシャルメディアに現れました。

こうした被害が生み出すのは「萎縮効果」です。記事に登場するムンバイの法学部卒業生Gaatha Sarvaiyaのように、多くの女性がソーシャルメディアへの投稿をためらい、アカウントを非公開にするなど、オンライン活動を自主的に制限しています。Tattleの共同創設者Tarunima Prabhakarは2年間にわたるフォーカスグループ調査を通じて、女性たちが「疲労」を感じ、「オンラインスペースから完全に後退する」傾向を特定しました。

プラットフォーム側の対応も不十分です。Equality Nowが11月4日に発表した報告書によれば、インドの法執行機関はYouTube、Meta、X、Instagram、WhatsAppなどの企業に虐待的なコンテンツを削除させるプロセスを「不透明で、リソース集約的で、一貫性がなく、しばしば効果がない」と説明しています。

ただし、一部のプラットフォームは対策を強化し始めています。Metaは2025年6月、nudifyアプリを宣伝していた香港企業Joy Timeline HK Limited(CrushAIアプリの開発元)を提訴しました。同社は2023年以降、Facebookとinstagram上で87,000件以上の広告を掲載していたとされています。Metaは新たにAI技術を使って、ヌードを含まない広告でもnudifyアプリの宣伝を検出できるシステムを開発し、Tech CoalitionのLanternプログラムを通じて他のテック企業と脅威情報を共有し始めました。

法整備も進んでいます。米国では2025年5月にTake It Down Actが成立し、同意なしに生成・配布されたヌード画像(実写・AI生成を問わず)を連邦法で違法としました。インドでも2025年11月6日に改正IT規則のパブリックコメントを締め切り、この後ディープフェイク動画には「AI生成」の明確な表示が義務付けられる予定です。

しかし、法的対応だけでは不十分です。インドの法制度は長期化しがちで、「行われたことに対する正義を得るためには多くの官僚的な障害がある」とSarvaiyaは指摘します。また、プラットフォームがアカウントを削除しても、コンテンツは他の場所に再び現れる「コンテンツ再犯」という問題も存在します。

この問題が示すのは、AI技術の進化と倫理的枠組みの整備との間に深刻なギャップが存在するという事実です。インドは世界最大級のAI実験場となっていますが、同時に女性に対するAI悪用の最前線にもなっています。技術の民主化は、その技術を悪用する手段の民主化でもあることを、私たちは認識する必要があります。

【用語解説】

ディープフェイク(Deepfake)
人工知能(AI)と機械学習を用いて、既存の画像や動画を極めてリアルに操作・生成する技術である。顔の入れ替え、音声のクローン、存在しない映像の作成などが可能だ。2017年頃から技術が発展し、現在では高精度な偽造コンテンツを容易に作成できるようになっている。

Nudifyアプリ(Nudification Apps)
AIを使用して画像から衣服を除去し、あたかも裸体であるかのような画像を生成するアプリケーションである。2019年頃から存在し、生成AI技術の進化により精度が向上した。非同意の親密な画像(NCII)作成の主要な手段となっている。

ドキシング(Doxing)
個人の住所、電話番号、メールアドレスなどの個人情報を、本人の同意なくインターネット上で公開する行為である。嫌がらせや脅迫の手段として用いられることが多い。

萎縮効果(Chilling Effect)
脅威や懸念により、人々が自己検閲を行い、本来持っている権利(表現の自由など)の行使を控えるようになる現象である。この記事では、ディープフェイク被害への恐怖から女性がオンライン活動を自粛する状況を指す。

POSH法(Prevention of Sexual Harassment Act)
インドで2013年に制定された「職場における女性の性的嫌がらせ防止法」である。職場での性的嫌がらせを定義し、安全な労働環境の確保を目的とする。1997年のVishakha判決に基づいて制定された。

Tech Coalition’s Lanternプログラム
テクノロジー企業が協力して、オンライン上の児童性的虐待や非同意の親密な画像などの有害コンテンツに関する脅威情報を共有するプログラムである。プラットフォーム間での連携を促進する。

コンテンツ再犯(Content Recidivism)
プラットフォームが有害なコンテンツやアカウントを削除しても、同じコンテンツが別の場所や形で繰り返し現れる現象である。AI生成虐待コンテンツの特徴的な問題として指摘されている。

【参考リンク】

Rati Foundation(外部)
インドでオンライン虐待被害者向け全国ヘルプラインを運営する慈善団体

Tattle(外部)
インドのソーシャルメディア上の誤情報削減に取り組む企業組織

OpenAI(外部)
ChatGPTを開発した人工知能研究企業。インドは第2位の市場

Equality Now(外部)
女性と女児の法的平等を推進する国際人権組織

Meta(Facebook/Instagram)(外部)
nudifyアプリを宣伝する開発企業を提訴し対策を強化中

StopNCII.org(外部)
非同意の親密な画像の拡散を防ぐためのプラットフォーム

【参考記事】

India’s Women & AI: Deepfakes Fuel Internet Fear(外部)
AI生成コンテンツの大部分が女性をターゲットにしている実態を報告

India emerges as OpenAI’s second-largest market(外部)
OpenAI CTOがインドを世界第2位の市場と明言した記事

OpenAI is going big in India(外部)
OpenAIのインド市場戦略と低価格プラン投入を詳細に分析

Combating Nudify Apps with Lawsuit & New Technology(外部)
Metaの公式発表。香港企業を提訴し新たな検出システムを導入

Meta sues ‘nudify’ app-maker that ran 87k+ Facebook ads(外部)
Metaの訴訟について技術的側面から詳細に報告した記事

Nudify Apps Are Proliferating Despite Illegality(外部)
米国Take It Down Act成立による法的状況の変化を解説

India Faces ₹20,000 Crore Cybercrime Threat in 2025(外部)
インドにおけるAI悪用の経済的影響を詳細に分析した記事

【編集部後記】

AI技術の進化は、私たちの創造性や生産性を高める一方で、それを悪用する手段も同時に進化させています。今回のインドの事例は、決して遠い国の出来事ではありません。日本でも同様の技術は既に利用可能であり、誰もが被害者にも加害者にもなり得る状況です。

皆さんは、AI技術の民主化と安全性のバランスについて、どのようにお考えでしょうか。オンラインでの表現の自由と安全、この二つをどう両立させていくべきか、ぜひ一緒に考えていきたいです。

投稿者アバター
Satsuki
テクノロジーと民主主義、自由、人権の交差点で記事を執筆しています。 データドリブンな分析が信条。具体的な数字と事実で、技術の影響を可視化します。 しかし、データだけでは語りません。技術開発者の倫理的ジレンマ、被害者の痛み、政策決定者の責任——それぞれの立場への想像力を持ちながら、常に「人間の尊厳」を軸に据えて執筆しています。 日々勉強中です。謙虚に学び続けながら、皆さんと一緒に、テクノロジーと人間の共進化の道を探っていきたいと思います。

読み込み中…
advertisements
読み込み中…