OpenAIは2025年9月30日にAI動画生成ツールSora 2をローンチし、ソーシャルフィード機能を追加した。しかしリリース数時間後、フィードには著作権キャラクターを悪用した動画や、暴力・人種差別を描いた動画が溢れた。爆弾予告や銃乱射のシーン、ガザやミャンマーの紛争地帯を描いた動画、白人至上主義スローガンを叫ぶ動画などが生成された。招待制にもかかわらず、リリース3日でApp Storeの首位に到達。誤情報研究者は、このようなリアルな映像が真実を曖昧にし、詐欺や脅迫に使われる可能性を警告している。OpenAIはセーフガードを主張するが、スポンジ・ボブやピカチュウなど著作権キャラクターの動画が大量生成され、研究者は「ガードレールは実在しない」と批判している。
From: OpenAI launch of video app Sora plagued by violent and racist images: ‘The guardrails are not real’
【編集部解説】
Sora 2は、テキストプロンプトから最大20秒の動画を生成できるtext-to-video(テキスト動画変換)モデルです。従来のSoraと比較して解像度と生成速度が向上し、1080pの高品質動画を数分で生成可能になりました。しかし今回のローンチで浮き彫りになったのは、生成AIにおけるコンテンツモデレーションの根本的な課題です。
OpenAIは利用規約で暴力的・有害なコンテンツを禁止していますが、実際の運用では事後対応に依存しています。プロンプトレベルでのフィルタリングは存在するものの、「ニュース風の映像」「抗議活動」といった中立的な表現を使えば、問題のあるコンテンツを生成できてしまう状況です。これはテキスト生成AIでも見られた問題が、より視覚的でインパクトの強い動画に拡大したことを意味します。
著作権の問題も深刻です。OpenAIはオプトアウト方式を採用しましたが、これは権利者側が能動的に申請しなければ保護されないという構造です。スポンジ・ボブやピカチュウなどの著作権キャラクターが生成可能な状況は、学習データに大量の著作物が含まれていることを示唆しています。個別の削除申請に対応するとしていますが、生成可能な組み合わせは無限に近く、実効性には疑問が残ります。
技術的な側面では、Sora 2の生成品質の高さが逆に問題を複雑にしています。発達したAIは、実在しない人物や架空のシーンを違和感なく生成できるため、フェイクニュースや詐欺への悪用リスクが格段に高まりました。特に選挙期間中の偽情報拡散や、金融詐欺での悪用が懸念されています。
一方で、ポジティブな側面も存在します。映像制作のコストと時間が劇的に削減され、個人クリエイターや中小企業でも高品質な動画コンテンツを制作できるようになります。教育分野では歴史的場面の再現や、危険な実験のシミュレーション映像を安全に作成可能です。
【編集部追記】
逆転した立証責任という構造的問題
OpenAIがSora 2で採用したオプトアウト方式は、権利者が自ら申請しない限り、著作物が学習データとして利用され続ける仕組みです。Wall Street Journalの報道によれば、OpenAIはローンチ直前にタレント事務所やスタジオに通知し、望まない場合はオプトアウトするよう求めました。この方式の本質的な問題は、従来の著作権法の原則を逆転させている点にあります。
著作権法の基本は「オプトイン」、つまり利用者が権利者から事前に許諾を得ることです。音楽をCDに収録する際も、映画にキャラクターを登場させる際も、必ず権利者の同意が必要でした。ところがオプトアウト方式では、権利者側が監視・申請する責任を負わされます。これは立証責任の転嫁であり、著作権保護の負担を権利者に押し付ける構造です。
さらに深刻なのは実効性の欠如です。スポンジ・ボブ、ピカチュウ、リック・アンド・モーティなど、既存キャラクターの組み合わせは理論上無限に存在します。「中国に関税をかけるピカチュウ」「ナチス風の服を着たスポンジ・ボブ」「暗号通貨詐欺を宣伝するスポンジ・ボブ」といった全てのバリエーションを、各権利者が個別に申請することは現実的に不可能です。OpenAIは学習データの詳細も公開しておらず、権利者は自身の著作物が使用されているか確認する手段がありません。これは「泥棒に入られてから鍵をかける」ような対応であり、予防的な権利保護とは程遠いものです。
各国の法制度が示す異なる判断
オプトアウト方式の合法性は、各国の法制度によって大きく異なります。米国では著作権法第107条のフェアユース(公正利用)がAI学習を許容する余地を与えてきましたが、Sora 2は商業サービスであり、元のキャラクターの特徴を保持したまま生成される状況は変容的利用とは言えません。2023年から2024年にかけて、Getty Images対Stability AI、New York Times対OpenAIなど、生成AIに関する集団訴訟が相次いでおり、Sora 2も同様の法的リスクを抱えています。
EUはより厳格です。2024年に施行されたAI法は、生成AIに学習データの内容開示、AI生成コンテンツへの明示を義務付けています。さらに、EU著作権指令は、テキスト・データマイニングに関して権利者の明示的な許諾を要求しています。OpenAIのオプトアウト方式は、この「明示的許諾」原則とは正反対の構造であり、EU市場では法的に持続不可能な可能性が高いです。
日本の著作権法第30条の4は、「情報解析の用に供する場合」に限り、著作物を無許諾で利用できると定めていますが、「著作権者の利益を不当に害することとなる場合」は除外されます。文化庁は2024年3月のガイドラインで「既存の著作物の表現上の本質的特徴を直接感得できる場合は侵害となる可能性がある」と明示しました。スポンジ・ボブやピカチュウが元の特徴を保持して生成される状況は、まさにこれに該当します。
権利者の組織的反撃が始まった
権利者側は既に動き始めています。WME(William Morris Endeavor)は2025年10月1日、所属クライアント全員をSora 2からオプトアウトさせる方針を発表しました。これは大手タレント事務所による初の組織的対応であり、今後他の事務所も追随する可能性があります。
法的手段も多様化しています。著作権侵害訴訟に加えて、商標権侵害、不正競争防止法違反、肖像権・パブリシティ権侵害など、複数の法的根拠で訴訟が可能です。Washington Postの記者がサム・アルトマン本人を第二次世界大戦の軍事指導者として生成できた事例は、著名人の肖像権侵害の可能性を示しています。
さらに、権利者団体は立法ロビー活動を強化しています。米国では「AI Labeling Act」「No Fakes Act」などの法案が議会に提出され、日本でも文化庁がAI時代の著作権法改正を検討しており、2026年の通常国会に改正案が提出される可能性があります。権利者側は、オプトイン方式の義務化、AI生成コンテンツへのウォーターマーク義務化を求めています。
技術と権利のバランスをどう取るか
過去の訴訟が示すのは、学習の合法性と出力の合法性は別問題だということです。たとえ学習段階が許容されても、出力が元の著作物を実質的に複製・翻案する場合は侵害となります。Sora 2は、この「出力段階での侵害」リスクが極めて高いモデルです。
オプトアウト方式は、短期的には法的グレーゾーンに留まるかもしれませんが、長期的には持続不可能です。訴訟コストの増大、レピュテーションリスク、規制強化の流れを考えれば、OpenAIがこの方式に固執することは、より厳しい規制を招くだけです。University of WashingtonのEmily Bender教授が「信頼関係を弱め、破壊する」技術だと警告するのは、権利保護の仕組みが不十分であることへの批判でもあります。
持続可能なAIエコシステムには、権利者の事前同意を前提とするオプトイン方式への転換が不可欠です。これは技術の発展を妨げるものではなく、むしろ社会的受容性を高め、持続可能な成長を実現するための基盤となります。サム・アルトマンが認めた「いくらかの不安」は、法的・倫理的基盤の脆弱性から来るものです。WMEの組織的オプトアウト、相次ぐ訴訟、各国での規制強化――これらは全て、現在の仕組みが持続不可能であることを示しています。Sora 2は、生成AI規制を加速させる転換点となるかもしれません。技術先行のアプローチが限界を迎えつつある今、OpenAIの選択が業界全体の未来を左右します。
【用語解説】
Sora
OpenAIが開発したテキストから動画を生成するAIモデル。プロンプトを入力するだけで最大20秒のリアルな動画を自動生成できる。2024年2月に初代が発表され、2025年9月にSora 2がリリースされた。
text-to-video(テキスト動画変換)
テキストの説明文から動画を生成するAI技術。自然言語で記述したシーンや状況を解析し、視覚的な動画コンテンツとして出力する生成AIの一分野。
deepfake(ディープフェイク)
ディープラーニング技術を使って作成された、実在の人物の顔や声を別の映像に合成した偽動画。政治的な偽情報拡散や詐欺に悪用されるリスクが高い。
synthetic media machine(合成メディアマシン)
AIを用いてテキスト、画像、動画などのメディアコンテンツを人工的に生成するシステムの総称。真実との区別が困難な情報を大量生産できる点が問題視されている。
オプトアウト方式
権利者が自ら申請しない限り、自動的に利用許諾したとみなされる仕組み。著作権保護の観点からは権利者に不利とされ、オプトイン方式(明示的な許諾が必要)との対比で議論される。
コンテンツモデレーション
SNSやプラットフォーム上の不適切なコンテンツを監視・削除する業務。人力とAIを組み合わせて実施されるが、生成AI時代には対応が追いつかない課題がある。
Content Authenticity Initiative(コンテンツ真正性イニシアチブ)
Adobe主導で設立された、デジタルコンテンツの出所と真正性を証明するための業界横断的な取り組み。メタデータによる来歴追跡技術の標準化を推進している。
slop(スロップ)
AI生成による低品質で反復的なコンテンツの大量発生を指す俗語。プラットフォームを圧倒し、質の高いコンテンツが埋もれる現象を表す。
【参考リンク】
OpenAI – Sora 2公式ページ(外部)
Sora 2の公式発表ページ。技術的な進化、新機能、安全性への取り組みについての説明が掲載されている。
OpenAI – Sora製品ページ(外部)
Soraの概要と使い方を説明する公式ページ。招待コードの申請方法や、利用規約、安全ガイドラインなどの情報が掲載。
Content Authenticity Initiative(外部)
Adobeが主導するデジタルコンテンツの真正性を証明する業界イニシアチブの公式サイト。
【参考記事】
OpenAI’s latest Sora AI video generator released for U.S., Canada(外部)
CNBC(2025年9月30日)。Sora 2のローンチ発表を報じた記事。アメリカとカナダで先行リリースされたこと、招待制であること、TikTok風のソーシャルフィード機能が追加されたことなどが詳述。
OpenAI Is Preparing to Launch a Social App for AI-Generated Videos(外部)
Wired(2025年9月29日)。Sora 2のソーシャルアプリとしての側面に焦点を当てた記事。TikTok型のフィード設計や、クリエイターエコノミーへの影響について分析。
OpenAI launches new AI video app spun from copyrighted content(外部)
Reuters(2025年9月30日)。Sora 2リリース直後から著作権侵害コンテンツが大量生成されている問題を報道。オプトアウト方式への批判や、権利者団体の懸念を伝えている。
OpenAI’s Sora Video App Is Jaw-Dropping (for Better and Worse)(外部)
New York Times(2025年10月2日)。Sora 2の技術的な驚異と同時に、誤情報拡散リスクや著作権問題など、両面から詳細に分析した長文記事。
OpenAI’s Sora 2 is an unholy abomination(外部)
Vox(2025年10月3日)。Sora 2がもたらす社会的リスクに焦点を当てた批判的な記事。ディープフェイクの民主化と情報生態系への悪影響について警鐘を鳴らしている。
Sora 2 Is Wonderful and Terrifying at the Same Time(外部)
Business Insider(2025年10月3日)。クリエイターと技術者へのインタビューを交えて、Sora 2のポジティブな可能性と潜在的な危険性の両方をバランスよく報じた記事。
【編集部後記】
オプトアウト方式という言葉は一見技術的に聞こえますが、その本質は「誰が負担を負うか」という社会設計の問題です。従来の著作権法は、利用者が許諾を得る責任を負う「オプトイン」を原則としてきました。これは、創作者の権利を守ることで創作活動を奨励し、文化の発展を促すという思想に基づいています。
OpenAIのオプトアウト方式は、この原則を逆転させました。権利者側が監視し、申請し、削除を求める責任を負わされます。しかし、ピカチュウがナチス風の服を着る動画、スポンジ・ボブが詐欺を宣伝する動画が無限に生成できる状況で、個別対応は機能しません。これは「泥棒に入られてから鍵をかける」ような仕組みであり、予防的な権利保護とは程遠いものです。
より深刻なのは、この方式が前例となることです。OpenAIという業界リーダーがオプトアウトを採用すれば、他のAI企業も追随するでしょう。そうなれば、著作権保護の負担は全て権利者に転嫁され、個人クリエイターや中小の権利者は対応しきれません。結果として、大手企業だけが権利を守れる不公平な状況が生まれます。
一方で、技術の可能性を潰すべきではありません。Sora 2は、映像制作を民主化し、教育や医療に革新をもたらす可能性を秘めています。問題は技術そのものではなく、その社会実装の方法です。権利者の事前同意を前提とするオプトイン方式、AI生成コンテンツへの明確な表示、透明性のある学習データの開示――これらは技術の発展を妨げるものではなく、むしろ社会的受容性を高め、持続可能なエコシステムを構築するための基盤です。
サム・アルトマンが認めた「いくらかの不安」は、法的・倫理的基盤の脆弱性から来るものです。WMEの組織的オプトアウト、相次ぐ訴訟、各国での規制強化の動き――これらは全て、現在の仕組みが持続不可能であることを示しています。OpenAIが今後どう対応するかは、生成AI業界全体の未来を左右します。技術先行のアプローチが限界を迎えつつある今、私たちは「技術と権利のバランス」をどう取るべきか、真剣に考える時期に来ています。