極度の貧困や性暴力被害者を描いたAI生成画像がストックフォトサイトに氾濫し、大手保健NGOによる使用が増加している。
アントワープの熱帯医学研究所の研究者Arsenii Alenichevは100枚以上のAI生成画像を収集し、Lancet Global Healthで「貧困ポルノ2.0」と主張した。スイスのFairpictureに所属するNoah Arnoldは米国のNGO予算削減が事態を悪化させたと指摘した。
Adobe Stock PhotosやFreepikなどに数十枚のAI生成画像が掲載され、Adobeは約60ポンドでライセンスを販売している。2023年にPlan Internationalのオランダ支部が児童婚反対キャンペーンでAI画像を使用し、2024年には国連がYouTubeに紛争における性暴力のAI生成再現動画を投稿したが、Guardianの問い合わせ後に削除された。Plan Internationalは2025年から個々の子どもを描写するAI使用に反対するガイダンスを採用した。
From: AI-generated ‘poverty porn’: fake images being used by aid agencies
【編集部解説】
生成AIが「貧困ポルノ2.0」を生み出している。この問題提起は、私たちが技術進化の恩恵だけでなく、その影の部分にも目を向けるべき時が来ていることを示しています。
「貧困ポルノ」とは、極度の貧困状態にある人々、特に途上国の子どもたちの苦しみを誇張して描写し、寄付を募るために感情に訴える手法を指します。1980年代のLive Aidなどの慈善キャンペーンで多用されましたが、当事者の尊厳を損ない、ステレオタイプを固定化するとして長年批判されてきました。
今回のGuardianの報道は、この問題がAI時代に新たな形で復活していることを明らかにしました。アントワープの熱帯医学研究所のArsenii Alenichev研究員は、2025年1月から7月の間にLinkedInやX(旧Twitter)で使用されたAI生成画像100枚以上を収集し、それらが古典的な貧困ポルノの視覚文法を再現していることを発見しました。
なぜNGOや援助機関がこうした画像を使うのでしょうか。理由は明確です。コストと同意の問題です。実際の写真撮影には写真家の雇用、現地への渡航、そして何より被写体からの同意取得が必要です。一方、AI生成画像は数秒で作成でき、費用は実質ゼロ。米国のNGO予算削減が進む中、この「効率性」は魅力的に映ります。
しかし、この効率性には大きな代償が伴います。Adobe Stock PhotosやFreepikなどの主要ストックフォトサイトには、「難民キャンプのフォトリアリスティックな子ども」「ごみでいっぱいの川で泳ぐアジアの子どもたち」といったキャプションのAI画像が数十枚単位で掲載されています。Adobeはこれらの一部を約60ポンド(約12,000円)で販売しています。
FreepikのCEOであるJoaquín Abelaは、責任は消費者にあるとの立場です。しかし、Alenichev研究員が指摘するように、これらの画像は「非常に人種化されており、アフリカやインドに関する最悪のステレオタイプ」を体現しています。
具体的な事例も明らかになっています。2023年、英国の慈善団体Plan Internationalのオランダ支部は、児童婚反対キャンペーンでAI生成画像を使用しました。黒い目をした少女、年配の男性、妊娠中のティーンエイジャーといった画像です。Plan Internationalは2025年から「個々の子どもを描写するAI使用に反対するガイダンス」を採用しましたが、2023年のキャンペーンは「実際の少女のプライバシーと尊厳を守るため」にAI画像を使用したと説明しています。
さらに衝撃的なのは国連の事例です。2024年、国連は公式YouTubeチャンネル(登録者300万人)に、紛争における性暴力のAI生成「再現」動画を投稿しました。1993年のブルンジ内戦中に3人の男性にレイプされ死にかけたというブルンジ人女性のAI生成証言が含まれていました。この動画はGuardianが国連に問い合わせた後に削除されました。
国連平和維持活動のスポークスパーソンは、この動画が「AIの不適切な使用を示し、実際の映像と人工的に生成されたコンテンツを混合することにより、情報の完全性に関するリスクをもたらす可能性がある」と認めました。
技術的な観点から見ると、この問題の根深さが見えてきます。生成AIは既存のデータから学習します。Alenichev研究員の以前の研究では、MidjourneyというAIツールに「白人の苦しむ子どもたちを治療する黒人アフリカ人医師」という画像を生成するよう依頼しましたが、350枚以上の試行で、子どもは常に黒人として描かれ、22枚では医師が白人として描かれました。AIは「白人の救世主」と「苦しむ黒人の子ども」というステレオタイプから逃れられなかったのです。
この問題は単なる表現の問題にとどまりません。Alenichev研究員が警告するように、これらの偏ったAI画像がインターネット上に拡散し、次世代のAIモデルの訓練データとして使用されれば、偏見はさらに増幅されていきます。これは負のフィードバックループです。
NGOコミュニケーションコンサルタントのKate Kardolは「貧困を経験している人々のより倫理的な表現のための戦いが、今や非現実的なものにまで及んでいることは悲しい」と述べています。数十年にわたる倫理的画像使用の議論が、技術の進化によって振り出しに戻されてしまったのです。
この問題には倫理的なジレンマも存在します。実在の人物を撮影すれば、同意とプライバシーの問題が生じます。しかし、AI画像を使えば、ステレオタイプを固定化し、当事者の声を消してしまいます。どちらを選んでも完璧な解決策ではありません。
長期的な視点で見ると、この問題は援助と開発のあり方そのものを問い直しています。寄付を集めるために感情に訴える必要があるという前提自体が、援助する側とされる側の不均衡な力関係を反映しています。AI技術がこの構造をより安価に、より効率的に再生産できるようになったことで、根本的な問い直しが求められています。
The Lancet Global Healthに掲載されたコメント記事でAlenichev研究員らは、WHOが2023年に禁煙キャンペーンで「飢えたアフリカ系の子ども」のAIで生成したと思われる画像を使用した例を挙げています。これらの組織は実在の人物でこのような描写を作成することは内部の倫理方針により避けるでしょう。しかし、画像の生成が、長年批判されてきた視覚的比喩を新たな装いで再導入する正当化に使われているのです。
Adobeはコメントを拒否しましたが、この沈黙も問題の一部です。技術プラットフォームは「中立」を主張しますが、どのようなコンテンツをホストし販売するかという選択は、決して中立的ではありません。
この報道が提起する最も重要な問いは、私たちがどのような未来を望むかということです。AI技術は人類の創造性を拡張する可能性を持っていますが、同時に最も有害なステレオタイプを工業的規模で複製する能力も持っています。私たちはどちらの道を選ぶのでしょうか。
【用語解説】
貧困ポルノ(Poverty Porn)
極度の貧困状態にある人々、特に途上国の子どもたちの苦しみを誇張して描写し、寄付を集めるために感情に訴える手法。1980年代の慈善キャンペーンで多用されたが、当事者の尊厳を損ない、ステレオタイプを固定化するとして批判されている。
NGO(Non-Governmental Organization)
非政府組織。政府から独立して活動する非営利団体。人道支援、開発援助、環境保護などの分野で活動する。
The Lancet Global Health
世界的に権威のある医学雑誌The Lancet姉妹誌で、グローバルヘルスに関する研究や論評を掲載する学術誌。公衆衛生、疾病、健康政策などを扱う。
【参考リンク】
Fairpicture(外部)
グローバル開発における倫理的な画像制作を促進するスイスの組織。現地クリエイターと協力し尊厳あるビジュアルストーリーテリングを提供
Institute of Tropical Medicine(外部)
1906年設立のベルギー・アントワープにある熱帯医学研究機関。熱帯病やHIV/AIDSなどの研究と教育を行う世界的権威
The Lancet Global Health(外部)
グローバルヘルスに関する研究や論評を掲載する医学学術誌。公衆衛生や疾病、健康政策などの最新研究を発表
Adobe Stock Photos(外部)
Adobeが運営するストックフォトサービス。数億点の写真やイラスト、ビデオを提供しAI生成画像も販売されている
Freepik(外部)
スペインのストックフォトプラットフォーム。無料および有料の画像やベクター、PSDファイルを提供している
Plan International(外部)
子どもの権利と女児の平等を推進する国際NGO。児童婚撲滅や教育支援などを世界75カ国以上で展開している
【参考記事】
The ethics of global health communication in the artificial intelligence era(外部)
Alenichev研究員らが100枚以上のAI生成画像を分析し貧困ポルノの視覚文法再現を指摘した学術論文
AI was asked to create images of Black African docs treating white kids(外部)
Midjourneyに白人の子どもを治療する黒人医師の画像生成を350回以上依頼した実験を詳述した記事
Reflections before the storm: the AI reproduction of biased imagery(外部)
AIが既存のグローバルヘルス画像のバイアスを再現・増幅することを示した2023年の論文
Perpetuating Prejudice: AI reinforces Racial Stereotypes(外部)
熱帯医学研究所のプレスリリース。AIが人種的ステレオタイプから逃れられない課題を浮き彫りにした
Conflict-related Sexual Violence | United Nations(外部)
国連の紛争関連性暴力に関する公式ページ。AI生成再現動画が削除された背景にある国連の取り組みを説明
【編集部後記】
私たちがSNSやウェブサイトで目にする「途上国支援」の画像。その中にAI生成されたものがどれくらい含まれているか、考えたことはあるでしょうか。効率性とコスト削減が優先される時代に、誰の声が消されているのか。そして、私たちはその画像を見て何を感じ、どう行動しているのか。
技術そのものは中立です。それをどう使うかは、私たち一人ひとりの選択にかかっています。あなたは、どのような未来の画像を見たいですか?この問いを、ぜひ一緒に考えてみませんか。