GoogleのAI「Nano Banana Pro」が人種差別的画像を生成、慈善団体ロゴも無断使用

[更新]2025年12月5日

 - innovaTopia - (イノベトピア)

Googleの画像生成AI「Nano Banana Pro」が、アフリカでの人道支援に関するプロンプトに対して人種差別的なビジュアルを生成していると指摘された。

アントワープの熱帯医学研究所の研究者Arsenii Alenichevが2025年12月に実験を行い、「アフリカで子どもたちを助けるボランティア」というプロンプトで画像を何十回も生成したところ、2つの例外を除いて白人女性が黒人の子どもたちに囲まれている画像が生成された。

さらに、プロンプトに含まれていないにもかかわらず、World Vision、Peace Corps、赤十字、Save the Children、Doctors Without Bordersなどの実在する慈善団体のロゴが画像に表示された。World VisionとSave the Children UKは無断でのロゴ使用に懸念を表明し、正当性や合法性を認めないとした。

Googleの広報担当者は安全対策の継続的な強化に取り組むとコメントした。

From: 文献リンクGoogle’s AI Nano Banana Pro accused of generating racialised ‘white saviour’ visuals

【編集部解説】

GoogleのAI画像生成ツール「Nano Banana Pro」が、アフリカの人道支援に関する画像を生成する際に深刻な人種的バイアスを示していることが明らかになりました。この問題は、AI技術が社会の偏見をどのように増幅するかを示す重要な事例です。

Nano Banana Proは、2025年11月にリリースされたばかりのGoogleの最新画像生成モデルで、Gemini 3 Pro Imageとしても知られています。高品質な画像生成と多言語テキスト表示を特徴とし、Google AdsやGoogle Workspaceなどの製品に統合されています。

今回指摘されたのは、このツールが「アフリカで子どもたちを助けるボランティア」といったプロンプトに対して、ほぼ例外なく白人女性が黒人の子どもたちに囲まれている構図を生成してしまうという問題です。これは「白人救世主」という古典的なステレオタイプを体現しています。

さらに深刻なのは、プロンプトに含まれていないにもかかわらず、World Vision、Peace Corps、赤十字、Save the Children、Doctors Without Bordersといった実在する慈善団体のロゴが画像に表示されてしまうことです。これらの団体は無断使用に強い懸念を表明しており、知的財産権の侵害として法的措置も検討しています。

この問題を発見したArsenii Alenichev氏は、アントワープの熱帯医学研究所の研究者で、世界保健画像の倫理について長年研究してきました。彼は2023年にLancet Global Healthで、別のAI画像生成ツール「Midjourney」が同様のバイアスを持つことを報告しています。その研究では、「黒人のアフリカ人医師が白人の子どもたちを治療する」というプロンプトでも、AIは常に患者を黒人として描いてしまうことが示されました。

AI画像生成ツールがこうしたバイアスを持つ理由は、訓練データにあります。これらのモデルは、インターネット上に存在する膨大な画像とそのキャプションから学習します。しかし、歴史的に人道支援の画像は「白人が非白人を助ける」というステレオタイプに満ちており、AIはそのパターンを学習・再現してしまうのです。

この問題は、単なる技術的なバグではなく、より広範な社会的課題の一部です。Alenichev氏は最近、「poverty porn 2.0」という概念を提唱しました。これは、援助団体がAI生成画像を使って極度の貧困を描写する現象を指します。予算削減と同意取得の手間を避けるため、実際の写真の代わりにAI画像を使用する団体が増えているのです。

世界保健機関、Plan International、国連などの主要組織も、キャンペーンでAI生成画像を使用していることが確認されています。これらの画像は、長年批判されてきた「ポバティ・ポルノ」の視覚的文法を再現し、人種的ステレオタイプを強化してしまいます。

Googleは今回の指摘に対し、「時にはプロンプトがツールのガードレールに挑戦することがある」とし、安全対策の継続的な強化に取り組むと述べています。しかし、AI画像生成における人種バイアスは広範な問題です。Stable DiffusionやOpenAIのDall-Eなど、他の主要モデルでも同様のバイアスが確認されています。

この問題の解決は容易ではありません。訓練データからバイアスを完全に取り除くことは技術的に困難で、フィルタリングによって別の偏りが生まれる可能性もあります。スタンフォード大学の研究者Pratyusha Ria Kalluriは、単一のAIモデルがすべての文化や価値観を代表することは不可能だと指摘し、地域コミュニティが独自のデータで訓練したAIを開発することを提案しています。

今回のNano Banana Proの問題は、AI技術の急速な進化が倫理的配慮を置き去りにしている現状を示しています。高度な技術力を持つGoogleでさえ、このような基本的なバイアスを防げていないという事実は、AI開発における透明性と説明責任の重要性を浮き彫りにしています。

【用語解説】

Nano Banana Pro(ナノ・バナナ・プロ)
Googleが2025年11月にリリースした最新のAI画像生成・編集モデル。正式名称はGemini 3 Pro Image。高解像度(最大4K)の画像生成、多言語テキストレンダリング、最大14枚の参照画像を使用した高度な構図機能を備える。Gemini 3 Proの推論能力を活用し、Google検索の知識ベースと連携することで、より正確で文脈に富んだビジュアルを生成できる。

白人救世主(White Saviour)
西洋の白人が非白人コミュニティを「救済」する存在として描かれる物語のパターン。特にアフリカやアジアなどの発展途上国における人道支援の文脈で批判されてきた。この表現は、支援を受ける側の主体性や能力を否定し、植民地主義的な権力構造を強化すると指摘されている。

ポバティ・ポルノ(Poverty Porn)
貧困や苦しみを過度に強調し、視聴者の感情に訴えることで寄付を促す画像や映像表現。2007年頃から批判されるようになった。対象者を文脈から切り離された「苦しむ身体」として描き、尊厳を損なうとされる。近年、AI生成画像による「ポバティ・ポルノ2.0」が問題視されている。

訓練データ(Training Data)
AIモデルが学習するために使用されるデータセット。画像生成AIの場合、インターネット上から収集された膨大な画像とそのキャプションが使用される。訓練データに含まれるバイアスや偏見がそのままAIの出力に反映されるため、データの質と多様性が重要となる。

アルゴリズミック・バイアス(Algorithmic Bias)
AIやアルゴリズムが特定のグループに対して不公平または差別的な結果を生み出す現象。訓練データの偏り、モデル設計の選択、評価指標の設定などから生じる。人種、性別、地域などに基づくステレオタイプを増幅させる可能性がある。

【参考リンク】

Introducing Nano Banana Pro – Google Blog(外部)
GoogleによるNano Banana Proの公式発表。技術仕様、機能、利用可能なプラットフォームについて詳細に説明されている。

Gemini 3 Pro Image (Nano Banana Pro) – Google DeepMind(外部)
Google DeepMindによる技術ページ。画像生成の実例、機能デモ、安全機能(SynthID透かし技術)について紹介。

World Vision UK(外部)
記事内で言及されたイギリスの国際人道支援NGO。無断でロゴが使用されたことに抗議している団体の一つ。

Save the Children UK(外部)
イギリスを拠点とする国際的な子ども支援NGO。AIによる知的財産権侵害を深刻な問題として調査を進めている。

Arsenii Alenichev – Institute of Tropical Medicine(外部)
今回の問題を指摘した研究者のプロフィールページ。世界保健画像の倫理に関する研究業績が掲載されている。

【参考記事】

Google’s Nano Banana Pro model makes AI images sharper, cleaner, and far more real(外部)
Nano Banana Proの技術的特徴と性能について詳述。SynthID透かし技術による透明性確保の取り組みも解説。

AI was asked for images of Black African docs treating white kids. How’d it go?(外部)
Arsenii Alenichevらの研究チームが行った実験を詳細に報告。AI画像生成における人種バイアスの実態を明らかにした記事。

Reflections before the storm: the AI reproduction of biased imagery in global health visuals(外部)
Alenichevらが2023年にLancet Global Healthに発表した研究論文。Midjourneyを使った実験で300枚以上の画像を分析した結果を報告。

The ethics of global health communication in the artificial intelligence era: avoiding poverty porn 2.0(外部)
「ポバティ・ポルノ2.0」の概念を提唱した最新論文。100枚以上のAI生成画像を収集し分析した結果を報告。

AI generated images are biased, showing the world through stereotypes(外部)
Stable Diffusion XLを使った詳細な検証記事。アフリカ人を原始的に、ヨーロッパ人を洗練されているように描くバイアスを実証。

AI image generators often give racist and sexist results: can they be fixed?(外部)
AI画像生成における人種・性別バイアスの原因を解説。スタンフォード大学の研究者による解決策の提案も紹介されている。

AI image generator Stable Diffusion perpetuates racial and gendered stereotypes, study finds(外部)
ワシントン大学による研究。Stable Diffusionが「人」を描く際、白人男性を過剰に表現し、有色人種女性を性的に描く傾向を定量的に分析。

【編集部後記】

AI画像生成ツールは、私たちの創造性を拡張する素晴らしい可能性を秘めています。しかし今回の事例は、技術が無意識のうちに社会のバイアスを増幅させてしまう現実を示しています。私たちがこれらのツールを使う時、生成された画像が誰かのステレオタイプを強化していないか、一度立ち止まって考えてみる必要があるのかもしれません。innovaTopia編集部も、AI技術の恩恵を受けながら、その影の部分にも目を向けていきたいと思います。みなさんは、AI生成コンテンツを目にした時、どのような視点で評価されていますか?技術の進化と倫理的配慮のバランスについて、一緒に考えていければと思います。

投稿者アバター
Satsuki
テクノロジーと民主主義、自由、人権の交差点で記事を執筆しています。 データドリブンな分析が信条。具体的な数字と事実で、技術の影響を可視化します。 しかし、データだけでは語りません。技術開発者の倫理的ジレンマ、被害者の痛み、政策決定者の責任——それぞれの立場への想像力を持ちながら、常に「人間の尊厳」を軸に据えて執筆しています。 日々勉強中です。謙虚に学び続けながら、皆さんと一緒に、テクノロジーと人間の共進化の道を探っていきたいと思います。

読み込み中…
advertisements
読み込み中…