2025年5月にGoogleが公開したAI動画生成ツール「Veo 3」を用いて作成された人種差別的な動画が、TikTok上で拡散し大きな注目を集めている。
非営利団体Media Mattersは、Veo 3のウォーターマークが入った動画を複数確認し、そのうちの1本は1,420万回以上再生されたと報告している。
これらの動画は黒人を主な標的とした人種的ステレオタイプを含み、1本あたり8秒以内というVeo 3の仕様と一致する。
Veo 3はテキスト入力のみで動画と音声を生成できる。
GoogleとTikTokは有害コンテンツ防止を掲げているが、実際には拡散を十分に防げていない。
TikTokは問題のアカウントを削除したと発表したが、Googleはコメントを出していない。他にもYouTubeやInstagramでも同様の動画が確認されている。
From:
Racist videos made with AI are going viral on TikTok
【編集部解説】
今回の事案は、GoogleのAI動画生成ツール「Veo 3」を使って作成された人種差別的な動画が、TikTokやInstagramなどのSNS上で大量に拡散し、数百万回以上再生されているというものです。Veo 3は2025年5月にGoogleが公開したばかりの最新AIで、テキストプロンプトから8秒程度の動画を自動生成できるのが特徴です。
Media MattersやWIREDなど複数の調査・報道によれば、黒人を侮辱する「ビッグフットバディーズ」や、反ユダヤ主義、アジア人や移民を揶揄する内容など、多様な差別的表現がAIで容易に作成され、拡散されています。
本来、GoogleやTikTokは有害コンテンツの生成・拡散を防ぐ規約や技術的対策を設けていますが、現実にはAIの表現力やユーザーの工夫によって抜け道が生じており、検出や削除が追いついていません。特にTikTokのような動画投稿数が膨大なプラットフォームでは、AIと人手による監視体制にも限界があることが浮き彫りになりました。
AI生成動画のリアルさや拡散力は、クリエイティブや教育などポジティブな活用も期待される一方で、差別やヘイトスピーチの拡大、社会的分断の助長といった深刻なリスクも同時に孕んでいます。今後は、AI開発企業・プラットフォーム運営者・社会全体がどのように規制や倫理的枠組みを強化し、技術進化と人権保護の両立を図っていくかが問われる局面に入ったと言えるでしょう。
また、今回の事例は日本国内のSNSやAIサービスにも波及する可能性があり、国内外問わず「AIによる表現の暴走」をどう抑止するか、議論と対応が急務です。AIの進化が人間社会にどのような影響をもたらすか、テクノロジーの未来を考える上で極めて重要な問題提起となっています。
【用語解説】
AI動画生成ツール
テキストや画像などの入力から自動的に動画を生成する人工知能技術の総称。近年は高精度な映像や音声も生成できる。
ウォーターマーク
動画や画像に付与される透かし。著作権や出所を示すために使われる。
ステレオタイプ
特定の人種や集団に対する固定観念や偏見。
ヘイトスピーチ
特定の人種、民族、宗教などを侮辱・攻撃する表現。
【参考リンク】
Google DeepMind(外部)
GoogleのAI研究部門。Veo 3を開発した組織で、AI技術の研究開発を行っている。
TikTok(外部)
ショート動画共有プラットフォーム。世界中で利用されている。
Media Matters for America(外部)
米国の非営利メディア監視団体。メディアの偏向や誤報を調査・報告している。
The Verge(外部)
米国のテクノロジーニュースサイト。Vox Mediaが運営している。
【参考記事】
Axios(外部)
Veo 3動画がインターネット上に拡散し、現実と見分けがつかなくなっている現状を分析
【編集部後記】
AI技術の発展は人類に多大な恩恵をもたらしていますが、同時に重大な責任も伴います。GoogleのVeo 3のような先進的な動画生成技術が、人種差別や偏見を助長するコンテンツの拡散に悪用されていることは、決して見過ごすことはできません。
私たちは、すべての形態のヘイトスピーチ、人種差別、そして人間の尊厳を傷つける行為に断固として反対します。技術は人々を分断するためではなく、理解と共感を深めるために存在すべきです。
企業には厳格なコンテンツ管理責任があり、プラットフォームには迅速な対応義務があります。そして私たち一人ひとりには、差別的コンテンツを拡散せず、多様性を尊重し、すべての人の人権を守るという使命があります。AI時代だからこそ、人間性と倫理を最優先に、誰もが安心して暮らせる社会を築いていく必要があります。