Last Updated on 2025-04-24 12:34 by admin
2025年4月、イギリスの非営利団体インターネット・ウォッチ・ファンデーション(IWF)は、AIによって生成された児童性的虐待画像が急増し、そのリアリティが著しく高まっていると発表した。
IWFの2024年の調査では、AI生成の児童虐待画像のうち約85%が「専門家でも5秒以内に写真かどうか判別できないほどリアル」と評価されている。前年と比べてAI生成画像の検出件数は約3倍に増加しており、背景にはStable Diffusionなどの生成AIソフトウェアの普及と、オープンソース版の流通がある。
BBCなどの報道によれば、過去にはPatreonやPixivなどのオンラインプラットフォームでAI生成の児童虐待画像が販売・共有されていたが、現在は多くのプラットフォームが対策を強化し、該当アカウントやコンテンツの削除を進めている。それでも違法画像の流通は依然として続いている状況だ。
イギリスでは2025年2月に「Online Safety Act 2025 Section 66A」が施行され、AI生成画像であっても児童性的虐待を描写するものは現実の画像と同様に違法とされた。一方、日本など一部の国では規制が緩く、国内サイトにも多くのAI生成児童性的画像が投稿されていると推計されている。
IWFの報告や各国の警察当局、専門家は、AI技術の進化が児童搾取犯罪の新たな温床となっていることに強い危機感を示している。今後は、AI生成物の検知技術や国際的な規制の強化が喫緊の課題となっている。
from:AI images of child sexual abuse getting ‘significantly more realistic’, says watchdog
【編集部解説】
AIによる画像生成技術の進化は、社会に多大な恩恵をもたらす一方で、その悪用リスクも急速に拡大しています。今回IWFが指摘した「専門家でも5秒以内に判別できないほどリアルなAI生成児童虐待画像」の増加は、技術の進歩が犯罪の手口を高度化させている現実を如実に示しています。Stable DiffusionのようなオープンソースAIの普及によって、誰でも高精度な画像生成が可能になり、違法コンテンツの作成や流通がかつてないほど容易になりました。
一方で、AIによる生成画像は写実的なものだけではありません。日本を含む一部の国では、アニメやイラスト調の「明らかに実在しない児童」を描いたコンテンツも多く流通しています。こうしたイラスト風のAI生成児童ポルノが法的にどう扱われるかは、国によって大きく異なります。
例えばイギリスやオーストラリアでは、実在・非実在を問わず「児童を性的に描写した画像」は違法とされており、AI生成物も現実の画像と同様に厳しく規制されています。一方、日本では現行法上、実在しないキャラクターを描いたイラストやアニメは児童ポルノ規制の対象外とされるケースが多く、法的なグレーゾーンが存在しています。
このような法規制の違いは、国際的な犯罪対策やインターネット上のコンテンツ管理に大きな課題をもたらしています。AI技術の進化によって、写実的な画像とイラスト風画像の境界も曖昧になりつつあり、今後は「表現の自由」と「児童保護」のバランスをどのようにとるかが、各国の社会や立法機関に問われることになるでしょう。
さらに、AI生成物は今後動画領域にも拡大していくと予想されており、現行の画像中心の対策だけでは不十分になる可能性があります。倫理的な観点からも、AI開発段階での倫理審査や、生成物への識別情報(ウォーターマーク)の埋め込み、国際的な情報共有体制の強化など、多面的なアプローチが必要です。
【用語解説】
ウォーターマーク(識別情報):
AI生成画像や動画に埋め込まれる、製作者や生成過程を識別できる情報。違法利用や不正流通の抑止策として注目されている。
【参考リンク】
Internet Watch Foundation公式サイト(外部)
イギリスの非営利団体で、インターネット上の児童性的虐待コンテンツの監視・通報・削除活動を行っている。世界中の違法コンテンツ対策の中心的役割を担う。
日本法務省:児童ポルノ規制法について(外部)
日本における児童ポルノ規制法の概要やQ&Aを掲載している。