4本の実験
午前2時。寝室のドアの向こう側から、私は画面を見つめていました。
月明かりに照らされたベッドで眠る女性。カメラがゆっくりと前進します。そして、部屋の隅に佇む暗い人影が、徐々に姿を現します。人影はずっとそこにいました。頭がゆっくりとこちらを向きます—。
これは、OpenAIの動画生成AI「Sora 2」を用いて私が生成した、4本の「10秒ホラー」のうちの1本です。他の3本も、地下室で頭上の階段裏に現れる無数の青白い手、突然黒い液体を吐いて四足歩行で襲いかかる女性、古いアパートの階段に吊るされた顔のないてるてる坊主—いずれも、テキストプロンプトから約数分で生成されました。
私がこの実験を行っている同じ時期、日本のホラークリエイティブカンパニー「株式会社闇」が主催する「10秒AIホラーチャレンジ」が、SNS上で驚異的な拡散を見せていました。2025年10月7日の開催からわずか3日間で応募総数1000件を突破し、インプレッション数は4000万件を超えたのです。
10秒という時間。それは、恐怖を生み出すには短すぎるように思えます。しかし、この10秒が今、私たちに問いかけているのは、恐怖そのものではありません。技術が人類に与える、創造性と危険性という二つの顔についてなのです。
Sora 2という技術的転換点
2025年9月30日、OpenAIは動画・音声生成AIモデル「Sora 2」をリリースしました。より正確な物理法則、シャープなリアリズム、そして同期された音声を特徴とするこのモデルは、動画生成AIの歴史において明確な転換点となりました。
Sora 2の技術的基盤は、Diffusion Transformer(DiT)と呼ばれるアーキテクチャにあります。これは、動画を3次元の「パッチ」として扱い、ノイズから段階的に明瞭な映像を生成するDiffusion(拡散)モデルと、Transformerの組み合わせです。技術的詳細を簡潔に言えば、Sora 2は動画をピクセルの集合としてではなく、物理世界のシミュレーションとして理解しようとしています。
OpenAIは、Sora 2について「バスケットボール選手がシュートを外せば、ボールはバックボードに跳ね返ります。以前のモデルのように、ボールが瞬間移動してゴールに入ることはありません」と説明しています。これは単なる技術的進歩ではありません。AIが「失敗」を理解し始めたことを意味します。成功だけでなく失敗も再現できる—それは、現実世界の複雑さに一歩近づいたということです。
そしてもう一つの革新が、音声の同期生成です。映像と音が一体となって生まれることで、Sora 2が生み出すコンテンツは、従来の動画生成AIとは次元の異なる「没入感」を獲得しました。
私たちは今、人類史における「リアリティ生成技術」の系譜の中で、新たな章を目撃しています。15世紀の活版印刷が知識の複製を可能にし、19世紀の写真が瞬間の記録を可能にし、20世紀の映画が時間の再構築を可能にしました。そして21世紀、AIは「現実そのもののシミュレーション」を可能にしつつあるのではないでしょうか。
AIホラーという現象—恐怖の創造性解放
株式会社闇は、「ホラー×テクノロジー」、通称「ホラテク」を掲げる企業です。彼らのミッションは「『怖い』は楽しい」で世界中の好奇心を満たすことであり、VRお化け屋敷からホラーゲーム、ホラーイベントまで、テクノロジーを駆使した恐怖体験を創出してきました。
今回の10秒AIホラーチャレンジは、その延長線上にあります。主催者は「Sora 2を始めとする昨今のAI動画に大変衝撃を受けました。その衝撃を分かち合うべく企画しましたが、たった10秒の審査が追いつかないほどの投稿をいただけるとは…一番、生成AIの力を見くびっていたのは私かもしれません」とコメントしています。
このムーブメントは、実は突然生まれたものではありません。生成AIを用いた怪奇創作YouTubeチャンネル「この映像は正常です。」は、2025年5月の投稿開始から約3ヶ月で登録者数2.8万人を記録し、最も再生された動画は40万回再生を突破しました。先行事例として「遷移圏見聞録」(2023年開始、現在登録者19万人)や「STRANGE LOVE」(2024年開始、現在登録者19万人)も挙げられます。
なぜ、AIとホラーはこれほど相性が良いのでしょうか?
一つの答えは、AIの「不完全性」にあります。リミナル・スペース(誰もいないビルの廊下や閉店後のショッピングモールなど、現実と非現実の境界にあるような空間)やアナログホラー(VHSのような古いアナログ画質のホラー映像)といったジャンルは、完璧なリアリティではなく、むしろ微妙な「ズレ」や「違和感」によって恐怖を生み出します。AIが時折見せる不自然さは、この文脈では欠点ではなく、むしろ演出となります。
もう一つの答えは、参入障壁の劇的な低下です。10秒という短尺のため、ユーザーはSNS上で気軽に作品を視聴・リポストでき、AIツールの技術進化により高度な撮影・編集スキルが不要となったことで、参入障壁が下がり、幅広いユーザーが受け入れています。
そして興味深いのは、あるユーザーの声です。「大体奇想天外な発想で作られたものだからフェイク動画と混同されづらいのが良いです。生成AIはこういう使い方であってほしい」。
ここには、重要な洞察があります。AIホラーは、その非現実性ゆえに、逆説的に「安全」なのです。誰も、てるてる坊主が本当にアパートに吊るされているとは思いません。この「明らかなフィクション性」が、創造的な遊び場を提供しています。
しかし、同じ技術が生み出す「もう一つの10秒」は、全く異なる様相を呈しています。
もう一つの10秒—ディープフェイクの現在地
ディープフェイク詐欺事件は、北米で2022年から2023年にかけて1,740%増加しました。1,740%—この数字を読み返してほしいのです。これは誤植ではありません。
2025年第1四半期だけで、ディープフェイク関連の金融損失は2億ドルを超えています。そして最も象徴的な事件が、2024年1月に発生しました。香港のエンジニアリング企業Arupの従業員が、ビデオ会議で英国本社のCFOや複数の同僚と話し合った後、2550万ドル(約38億円)の送金を承認しました。数週間後、会議に登場した全員がAIディープフェイクだったことが判明したのです。
問題の深刻さは、技術的完成度だけにあるのではありません。高品質な動画ディープフェイクに対する人間の検出率は、わずか24.5%です。つまり、私たちの4人に3人は、ディープフェイクを見抜けません。
さらに悪いことに、防御用AIツールの有効性も、実世界の条件下では45-50%低下します。研究室で訓練されたAI検出システムは、現実の多様な条件—照明の変化、圧縮、様々な撮影角度—に直面すると、その能力を大きく損なうのです。
Sora 2には安全対策があります。全ての動画に可視的な動く透かし(watermark)とC2PAメタデータが含まれ、AI生成であることを示しています。しかし、2025年10月7日までに、サードパーティプログラムによる透かし除去ツールが広まっています。
実際、Sora 2で生成した動画を、AIによる作品であることを明記せずにTikTokなどに投稿し、大量の視聴回数を獲得するアカウントが出現しています。ある事例では、赤ちゃんと猫が戯れる動画を投稿する1日前に開設されたアカウントが、16本の動画で8001人のフォロワーと48万件の「いいね」を獲得し、「#ホームビデオ」というハッシュタグを使用していました。コメント欄のユーザーの大半は、これらがAI生成だと認識していません。
そして、この状況が生み出した新しい現象があります。「インポスター・バイアス」—AI生成コンテンツの存在を認識することで、人々が本物のマルチメディアコンテンツの真正性さえも疑うようになる傾向です。
私たちは今、奇妙なパラドックスの中にいます。本物を疑い、偽物を信じる世界です。
技術の両義性—創造と破壊の狭間で
Sora 2のリリース後、ハリウッドの大手タレントエージェンシーは強い警告を発しました。CAA(Creative Artists Agency)は、Sora 2が「クライアントとその知的財産を重大なリスクにさらす」と述べ、UTA(United Talent Agency)は「これは革新ではなく搾取だ」と批判しました。
リリース直後から、マリオやピカチュウなどの著作権キャラクターを含む動画が大量に生成され、OpenAIがトレーニングデータに著作権保護されたコンテンツを使用していることが明らかになりました。OpenAIは「オプトアウト」方式を採用していますが、これは著作権者が積極的に除外を申請しない限り、自動的にデータ使用が許可されることを意味します。
ここに、技術の両義性が鮮明に現れます。
一方では、「10秒AIホラーチャレンジ」のように、専門的な撮影機材も編集技術も持たない人々が、想像力だけで作品を生み出せるようになりました。株式会社闇の主催者が「生成AIの力を見くびっていました」と述懐したように、この技術は創造性の民主化をもたらしています。
他方では、Arupの事件が示すように、同じ技術が金融詐欺、政治的ディスインフォメーション、プライバシー侵害の強力な武器となっています。
MIT Technology Reviewは、Sora専用アプリを「無限のAIスロップ製造機」と批判的に評し、「私たちがどれだけ現実を、無限にスクロールされるシミュレーションと引き換えにするつもりなのかを問うている」と述べました。
しかし、この二項対立的な理解は、十分でしょうか?
エンターテインメントとディープフェイクの境界線は、実は私たちが思うほど明確ではありません。てるてる坊主のホラー動画は無害ですが、「実在の政治家がてるてる坊主を吊るしている」動画は? 架空のYouTuberは楽しいですが、「実在のCEOが不適切発言をする」動画は?
技術そのものは中立です。しかし、その使用は決して中立ではありません。私たちは今、創造と破壊の間の細い線を歩いています。
私たちはどこへ向かうのか
ここで、一つの逆説に気づきます。「完璧でなくても危険」だということです。
Sora 2は、まだ完璧ではありません。時折、物理法則を破り、顔の表情が不自然になり、音声が同期しないことがあります。しかし、Arupの事件が示すように、完璧である必要はありません。十分に説得力があれば、それで事足りるのです。
米国政府監査院(GAO)は、「ディスインフォメーションは、ディープフェイクが特定された後でも拡散し続ける可能性があります。さらに、ディープフェイク制作者は検出を回避する洗練された方法を見つけ出しています」と警告しています。検出技術とディープフェイク生成技術は、終わりなき軍拡競争の中にあります。
では、私たちはどうすればいいのでしょうか?
答えの一つは、メディアリテラシーの再定義にあります。従来のメディアリテラシーは「情報源を確認する」「複数のソースを照合する」といった原則に基づいていました。しかし、AIの時代には、これだけでは不十分かもしれません。私たちは、「全ての動画が潜在的に偽物である」という前提から出発する必要があります。
これは、シニシズム(冷笑主義)への誘いではありません。むしろ、健全な懐疑主義です。動画を見たとき、私たちは問うべきです:「これは誰が、なぜ作ったのか?」「私はなぜこれを信じたいのか?」「これを検証する方法はあるか?」
もう一つの答えは、技術的対抗策の継続的開発です。Sora 2の動画にはC2PAメタデータが埋め込まれ、SynthIDという電子透かしが各フレームに含まれています。しかし、これらは完全な解決策ではありません。技術的対抗策と社会的対応策の両方が必要です。
そして最も重要なのは、技術を恐れるのではなく、理解することです。10秒AIホラーチャレンジの参加者たちは、Sora 2を「使うこと」で、その能力と限界を体感的に理解しています。技術を理解する最良の方法は、時に、それを使ってみることなのかもしれません。
innovaTopiaが掲げる「Tech for Human Evolution」という理念は、ここで意味を持ちます。技術は人類進化を促進する力です—しかし、その進化は自動的には起こりません。私たちが意識的に、批判的に、そして創造的に技術と向き合うとき、初めて進化は可能になります。
1000本のホラー動画が3日で生まれました。その事実は、恐怖よりもむしろ、人間の創造力の驚くべき豊かさを示しています。同時に、その同じ技術が38億円の詐欺を可能にしました。この矛盾を抱えたまま、私たちは前に進むしかありません。
問いかけましょう:あなたは、次に見る「10秒の動画」を、どう受け止めますか?
恐怖も、信頼も、そして創造も—全ては、私たちの選択にかかっているのです。
【Information】
用語解説
Diffusion Transformer (DiT): Diffusion(拡散)モデルとTransformerアーキテクチャを組み合わせた機械学習モデル。
リミナル・スペース: 「境界空間」を意味し、廊下、待合室、閉店後の店舗など、一時的で過渡的な空間を指す。人がいるべきなのにいない、という違和感が不気味さを生む。
C2PA (Coalition for Content Provenance and Authenticity): デジタルコンテンツの出所と真正性を証明するための技術標準。Adobe、Microsoft、Intel、BBCなどが参加する業界団体が策定している。
オプトアウト方式: デフォルトで全てのコンテンツが使用可能とされ、権利者が明示的に除外を申請する方式。オプトイン方式(明示的な許可が必要)の対義語。
インポスター・バイアス: AI生成コンテンツの存在により、本物のメディアさえも偽物ではないかと疑う心理的傾向。信頼の基盤を侵食する認知現象。
参考リンク
- OpenAI Sora 2公式サイト: https://openai.com/index/sora-2/
- 株式会社闇公式サイト: https://death.co.jp/