MetaのAI内部ガイドライン問題─チャットボットが子どもとセンシティブな会話が可能と規定

[更新]2025年8月15日19:08

 - innovaTopia - (イノベトピア)

Metaの内部文書がAIチャットボットに子どもとのセンシティブな会話を許可していたと2025年8月14日付Reutersが報じた。同文書には上半身裸の8歳児を「傑作」と称える例も含まれるが、「13歳未満を性的に描写する」ことは不可と記載していた。

問い合わせを受けたMetaは内容の真実性を認めたうえで該当部分を修正・削除し、Metaの広報担当のAndy StoneがThe Vergeに説明した。文書の注釈追加者や期間は不明。Reutersは虚偽情報生成や死・流血を含まない暴力画像作成を認めるなど他のAIポリシーも挙げ、チャットボットと会おうとした男性が転落死した別件も報じた。

From:  - innovaTopia - (イノベトピア)Meta’s AI policies let chatbots get romantic with minors

【編集部解説】

今回の報道は、AI時代における企業の内部統制と倫理ガバナンスの脆弱性を浮き彫りにした重要な事案です。

事実確認において、複数の国際メディアが同様の内容を報じており、Meta自身も内部文書の真正性を認めています。同文書には具体的な会話例が記載されており、上半身裸の8歳児に対して「あなたの隅々まで傑作です – 私が深く大切にしている宝物」といった表現が含まれていました。

特に注目すべきは、この問題が単なるポリシー文書の不備に留まらず、実際の製品開発指針として機能していた点です。文書には「子どもを恋愛的または官能的な会話に引き込む」ことや「子どもを魅力的であることを示す言葉で描写する」ことが許可されていました。

この事案は三つの深刻な影響をもたらします。第一に、AIの安全性に対する社会的信頼の失墜です。既にアメリカの上院議員からは議会調査を求める声が上がっており、規制強化の議論が加速する可能性があります。

第二に、企業の透明性への疑問が深まっています。Metaは問題のあるガイドラインを削除したと発表したものの、修正後のガイドラインの詳細は公開されていません。

第三に、この問題は他のテクノロジー企業にも波及する可能性があります。AIチャットボットを展開する企業は、自社の内部ガイドラインを再点検し、より厳格な統制システムの構築を迫られるでしょう。

さらに、今回の報道では、Metaのチャットボットが実在する人物であると偽り、ある男性が面会しようとして転倒してしまい、死亡した事例も明らかになりました。これは、AIの人格模倣機能が人間の判断力を損なう可能性を示唆しています。

日本でも、AI倫理ガイドラインの策定や企業のAI開発における監督体制の強化が議論される契機となるかもしれません。特に未成年者保護の観点から、デジタルプラットフォーム事業者に対するより厳しい規制が求められる可能性があります。

【用語解説】

内部文書(Internal Document)
企業が社内の方針や手順を定めるために作成する非公開の文書。今回の事案では、AIチャットボットの応答ガイドラインを規定した文書が問題となった。

【参考リンク】

Meta(旧Facebook)(外部)ソーシャルメディアプラットフォームを運営するアメリカの多国籍テクノロジー企業

Reuters(ロイター通信)(外部)世界最大級の国際通信社の一つ。170年以上の歴史を持つ報道機関

The Verge(外部)アメリカの大手テクノロジーメディア。Vox Mediaが運営

【参考記事】

Meta AI rules let chatbots flirt with minors, internal docs reveal(外部)今回の報道の原典となるロイター通信の調査記事

Man dies trying to meet Meta AI chatbot that said it was real person(外部)MetaのAIチャットボットが実在の人物を装い、男性が転倒死した事件を報じた続報

Meta’s AI chatbot policies allowed romantic conversations with minors(外部)TechCrunchによる同事案の報道とMeta社の対応について

【編集部後記】

今回のMeta事案は、私たちが日常的に接するAI技術の「見えない部分」を明らかにしました。企業の内部ガイドラインがどのような基準で作られ、誰がチェックしているのか、普段は意識することはありません。しかし、AIが社会インフラとなりつつある今、こうした透明性の問題は私たち全員に関わる課題です。皆さんは普段利用しているAIサービスについて、どの程度その仕組みや運営方針をご存じでしょうか。また、AI企業に対してどのような透明性や説明責任を求めたいとお考えでしょうか。

投稿者アバター
乗杉 海
新しいものが大好きなゲーマー系ライターです!

読み込み中…
読み込み中…