Googleは、Geminiアプリ内でAI生成動画を検証できる機能を提供開始した。この機能により、動画がGoogle AIを使用して編集または作成されたものかどうかを直接確認できる。ユーザーは動画をアップロードし、「これはGoogle AIを使って生成されたものか」と尋ねるだけで、GeminiがSynthID透かしを音声とビジュアルトラックの両方でスキャンし、Google AIを使用して生成された要素を含むセグメントを特定する。
例として「10〜20秒の間の音声内でSynthIDが検出されました。ビジュアルではSynthIDは検出されませんでした」といった応答が返される。アップロード可能なファイルは最大100MB、90秒までである。画像と動画の両方の検証機能は、Geminiアプリがサポートする全言語と全国で利用可能となった。
From:
You can now verify Google AI-generated videos in the Gemini app.
【編集部解説】
今回の発表は、AI生成コンテンツの真贋判定という課題に対する、Googleの一つの回答です。SynthIDという透かし技術を使い、Geminiアプリ上で動画が本当にGoogleのAIによって生成されたものかを検証できるようになりました。
SynthID技術の特徴は、人間が知覚できないレベルで音声と映像の両方に電子透かしを埋め込む点にあります。従来のメタデータ方式と異なり、動画の圧縮や切り抜き、フィルター処理といった一般的な編集作業を経ても、透かしが残存する設計になっています。ピクセルやフレームレベルに統計的パターンを織り込むことで、この堅牢性を実現しているのです。
注目すべきは、Geminiが単に「検出した/しなかった」を返すだけでなく、動画のどのセグメントにAI生成要素が含まれるかを特定する点でしょう。たとえば「10〜20秒の音声にSynthIDを検出。ビジュアルには検出されず」といった具体的な情報を提示します。これにより、部分的に編集された動画や、AI生成素材と実写映像を組み合わせたハイブリッドコンテンツにも対応可能になります。
この技術が重要性を増している背景には、ディープフェイクの急速な高度化があります。2025年現在、音声クローニング技術は数秒のサンプルから人物の声を再現できるレベルに到達しており、従来の単一検出手法では対応が困難になっています。多層防御戦略が求められる中、SynthIDのような透かし技術は、メタデータ解析や行動分析と組み合わせることで効果を発揮します。
ただし、透かし技術にも限界があることは認識すべきです。C2PA(Coalition for Content Provenance and Authenticity)が策定するContent Credentialsのようなメタデータ方式は、スクリーンショットやメタデータ削除ツールで容易に除去できることが知られています。SynthIDはこの弱点を克服する設計ですが、対抗技術の開発も進んでおり、いたちごっこの様相を呈しています。
規制や業界標準の観点では、GoogleがC2PAの運営委員会メンバーとして技術仕様の策定に関与している点が興味深いところです。SynthIDとC2PAのContent Credentialsは相互補完的な関係にあり、前者は改ざん耐性、後者はコンテンツの来歴情報の記録という役割を担います。Adobe、Microsoft、OpenAIなど主要プレイヤーがこの枠組みに参加しており、業界横断的な透明性確保の動きが加速しています。
長期的には、AI生成コンテンツの検証が日常的な行為になる可能性があります。現在は「疑わしいコンテンツを能動的に検証する」段階ですが、将来的にはブラウザやSNSプラットフォームが自動的に透かしを検出し、AI生成である旨を表示するインフラが整備されるかもしれません。そうなれば、情報リテラシーの新しい局面が開かれることになるでしょう。
【用語解説】
透かし技術(ウォーターマーク)
デジタルコンテンツに視覚的または聴覚的に知覚できない情報を埋め込む技術。SynthIDのような最新の透かしは、画像の圧縮や編集、動画の切り抜きといった一般的な加工処理を経ても検出可能な設計になっており、従来のメタデータ方式よりも改ざん耐性が高い。
ディープフェイク
AI技術を用いて作成された、本物と見分けがつかないほど精巧な偽の画像、音声、動画コンテンツ。顔の入れ替えや音声のクローニングなどが可能で、誤情報の拡散や詐欺に悪用されるリスクがある。2025年現在、数秒の音声サンプルから人物の声を再現できるレベルに到達している。
Content Credentials
C2PAが策定するデジタルコンテンツの来歴情報を記録する仕組み。撮影日時、使用機材、編集履歴、AI生成の有無などのメタデータを暗号化して保存する。Adobe、Microsoft、Googleなどが対応製品を提供しており、コンテンツの信頼性を検証する手段として普及が進んでいる。
【参考リンク】
SynthID(Google DeepMind)(外部)
Google DeepMindが開発したAI生成コンテンツの透かし技術。画像、音声、動画、テキストに知覚できない電子透かしを埋め込み、後から検証できる。
C2PA(Coalition for Content Provenance and Authenticity)(外部)
デジタルコンテンツの来歴と真正性を保証する技術仕様を策定する業界団体。Adobe、BBC、Intel、Microsoft、Googleなどが参加。
Gemini(Google AI)(外部)
Googleが開発した生成AI対応のパーソナルアシスタント。高度な言語理解と推論能力を持ち、SynthID検証機能が統合されている。
【参考動画】
SynthID: A tool for watermarking and identifying AI-generated content
Google公式チャンネルによるSynthID技術の解説動画。画像、動画、音声、テキストに透かしを埋め込む仕組みと堅牢性について説明。
SynthID – Watermarking and identifying AI-generated text
Google for Developersによるテキスト向けSynthID技術の詳細解説。Gemmaモデルとの統合について技術的に掘り下げている。
【参考記事】
SynthID – AI Content Watermarking & Identification(外部)
SynthID技術の包括的な解説サイト。透かしが圧縮、切り抜き、フィルター処理を経ても検出可能である点を詳述している。
SynthID & Invisible Watermarks for Edited Images Explained(外部)
編集画像における透かし技術の解説記事。SynthIDがピクセルレベルに統計的パターンを織り込む技術を分析している。
The Rise of Deepfake Detection Technologies in 2025(外部)
2025年時点でのディープフェイク検出技術の最新動向を報告。多層防御戦略の必要性を指摘している。
How Google and the C2PA are increasing transparency for gen AI content(外部)
GoogleのC2PA対応に関する公式発表。Content CredentialsとSynthIDの相互補完関係について説明している。
Transparency vs. Bias: The AI Content Credentials Debate(外部)
AI生成コンテンツの透明性確保における課題を論じる記事。透かし技術と対抗技術のいたちごっこの様相を分析。
【編集部後記】
SNSで目にする動画や音声、どこまで信じていいのか迷うことはありませんか? 今回のSynthID検証機能は、その疑問に向き合う一つの道具になるかもしれません。ただ、技術が進化すればするほど、対抗する手段も生まれてきます。
私たちは今後、何を信じ、どう判断していくべきなのでしょうか。完璧な答えはまだありませんが、こうした技術の存在を知ることが、情報との向き合い方を考える第一歩になると感じています。みなさんはどう思われますか?































