Googleがディープフェイク対策に見えないウォーターマーク技術を導入

Googleがディープフェイク対策に見えないウォーターマーク技術を導入 - innovaTopia - (イノベトピア)

Googleは、AIが生成した画像、ビデオ、テキストに見えないウォーターマークを挿入することで、ディープフェイクを特定するSynthIDウォーターマーキング技術を拡張した。これにより、ドキュメントを元のソースに追跡できるようになる。Google I/O開発者会議で、ディープフェイクや問題のある出力による情報の拡散を抑制するためのAIモデルのセキュリティ強化策を含む、複数のAI関連発表が行われた。

Googleはまた、リアルなビデオを生成するVeoと、生命のような画像を生成するImagen 3という2つの新しいAIモデルを発表した。これらのモデルに新しいウォーターマーキング技術が実装され、偽物を容易に特定し、情報の誤った拡散を防ぐことが目的である。例えば、VeoによってVideoFXで生成されたすべてのビデオはSynthIDによってウォーターマークされる。

SynthIDウォーターマーキングでは、AIモデルが生成した出力にウォーターマークを添付し、そのウォーターマークパターンのユニークさを識別するスコアリングシステムを使用して、テキストがAIによって生成されたものか、別のソースから来たものかを判断する。Googleは、他のベンダーにSynthIDテキストウォーターマーキングをオープンソース化している。

GoogleはI/Oで、AI支援のレッドチーミング技術でAIモデルを保護していることも強調した。AIエージェントは、レッドチーム能力を改善および拡張するために互いに競合するように訓練されている。この敵対的技術の主な目的は、問題のある出力を減らすことである。

【ニュース解説】

Googleが開発者会議Google I/Oで発表した、AI生成コンテンツに対する新たなセキュリティ対策は、ディープフェイクや偽情報の拡散に対抗するための重要なステップです。この技術は、AIが生成した画像、ビデオ、テキストに見えないウォーターマークを挿入することで、それらが人工的に生成されたものであることを特定できるようにするものです。このウォーターマーク技術は、SynthIDと呼ばれ、元のソースを追跡することを可能にします。

この技術の導入により、AIによって生成されたコンテンツが実際のものとして誤って認識されるリスクが軽減されます。特に、リアルなビデオや画像を生成するGoogleの新AIモデル、VeoとImagen 3にこの技術が適用されることで、偽情報の拡散を防ぐ上で大きな役割を果たします。例えば、Veoによって生成されたビデオは、SynthIDによって自動的にウォーターマークされ、それがAIによって生成されたものであることが容易に識別できるようになります。

また、Googleはこのウォーターマーキング技術をオープンソース化し、他のベンダーも利用できるようにしています。これにより、AI技術の責任ある使用と、ディープフェイクによる悪影響の防止に向けた業界全体の取り組みが促進されることが期待されます。

さらに、GoogleはAIモデルを保護するためにAI支援のレッドチーミング技術を使用しています。これは、AIエージェントが互いに競合し、AIモデルの弱点を特定することで、問題のある出力を減らすことを目的としています。このような自己競合のプロセスは、AIモデルのセキュリティを強化し、より信頼性の高いAIサービスの提供に寄与します。

この技術のポジティブな側面は、偽情報の拡散を防ぎ、AIの責任ある使用を促進することです。しかし、ウォーターマークが完全に不可視である場合、悪意のある利用者がこれを悪用する可能性も考えられます。また、ウォーターマーク技術の進化に伴い、これを回避するための新たな手法が開発される可能性もあります。そのため、技術の進化に伴い、常にセキュリティ対策を更新し続ける必要があります。

長期的には、このような技術が広く採用されることで、AIによるコンテンツ生成の透明性が高まり、ユーザーが情報をより正確に評価できるようになることが期待されます。また、規制当局によるAIの使用に関するガイドラインや規制の策定にも影響を与える可能性があります。全体として、Googleのこの取り組みは、AI技術の発展と社会へのポジティブな影響を促進するための重要な一歩と言えるでしょう。

from Google's AI Watermarks Will Identify Deepfakes.

ホーム » AI(人工知能) » AI(人工知能)ニュース » Googleがディープフェイク対策に見えないウォーターマーク技術を導入