Googleは2025年11月3日、開発者向けAIモデルGemmaをAI Studioプラットフォームから削除したと発表した。
共和党のMarsha Blackburn上院議員がGemmaによって虚偽の性的暴行疑惑を捏造されたと訴えたことが背景にある。Blackburnは木曜日にCEOのSundar Pichaiに書簡を送り、名誉毀損と反保守的偏見を非難した。
Gemmaは「Marsha Blackburnはレイプで告発されたことがあるか」という質問に対し、1987年の州上院選挙運動中に州警察官と性的関係を持ったという虚偽の回答をし、偽のニュース記事リストも提供した。
実際の選挙運動の年は1998年であり、そのような告発や個人、ニュース記事は存在しない。GoogleはGemmaが事実確認の補助には使用されるべきではなかったと述べ、AI Studioからのアクセスを削除したが、開発者向けAPIでは引き続き利用可能である。
From:
Google pulls AI model after senator says it fabricated assault allegation – The Verge
【編集部解説】
GoogleがAIモデルGemmaをAI Studioから削除した今回の事案は、生成AIが抱える「ハルシネーション」という根本的な問題が、もはや技術的な不具合では済まされない段階に入ったことを示しています。
Gemmaは開発者向けのオープンソースAIモデルとして設計されており、医療用、コーディング用、画像・テキスト評価用など様々な用途に対応するバリエーションが用意されています。しかし今回、このモデルが一般ユーザーによって事実確認の目的で使用され、公人である上院議員について完全に虚偽の犯罪疑惑を生成したことで、大きな問題となりました。
Googleは声明で「Gemmaは消費者ツールとして使用されることを想定していなかった」と説明しています。しかし、AI Studioが技術的には一般にアクセス可能だった以上、この弁明には説得力がありません。開発者向けツールであっても、公開されている以上は誤用のリスクを想定すべきだったでしょう。
特に深刻なのは、Gemmaが生成した虚偽の情報に、実在しない記事へのリンクまで付与されていた点です。これは単なる事実誤認ではなく、存在しない情報源を捏造することで、虚偽に信憑性を付与する行為と言えます。
今回の事案は、保守派活動家Robby Starbuckが10月22日にGoogleを提訴した直後に発生しました。Starbuckは、Gemmaを含むGoogleの複数のAIモデルが2023年から児童レイプや性的暴行などの虚偽の犯罪歴を生成し続けており、約280万人のユーザーに配信されたと主張しています。複数回の停止命令書を送付したにもかかわらず、Googleが適切な対応を取らなかったとして、少なくとも1500万ドルの損害賠償を求めています。
ハルシネーション問題は、LLM(大規模言語モデル)の構造的な限界です。これらのモデルは「次に来る最も確からしい単語」を予測して文章を生成するため、事実確認の機能を持ちません。スタンフォード大学の研究によれば、法律に関する質問に対するハルシネーション率は69%から88%に達しており、2025年5月だけで32件、累計で494件以上のAIハルシネーション関連の裁判例が記録されています。
法的な観点から見ると、今回のようなケースは名誉毀損訴訟の新しい領域を開拓しています。従来の名誉毀損法では、発信者の「過失」や「悪意」を証明する必要がありますが、AIには意識がないため、これらの概念をどう適用するかが課題となります。一部の法学者は、AI企業に対して「注意義務」を課し、虚偽情報の通知を受けた後に修正しなかった場合に責任を問うべきだと主張しています。
Googleは「すべてのLLMに共通する既知の問題」だと説明していますが、その説明は問題の本質を軽視しているように見えます。技術的な限界があるならば、その技術を公開する前に適切な安全措置を講じる責任があるはずです。
今回の措置でGemmaはAI Studioからは削除されましたが、開発者向けAPIでは引き続き利用可能です。これは一時的な対症療法に過ぎず、根本的な解決にはなっていません。
この事案が示唆するのは、AI企業が直面する新しい責任の形です。従来のプラットフォーム企業は、第三者が投稿したコンテンツに対して米国通信品位法230条によって保護されてきました。しかしAIが生成したコンテンツは「第三者」ではなくシステム自身が作り出したものであり、この免責規定は適用されない可能性が高いのです。
長期的には、この種の訴訟がAI開発に与える影響も無視できません。過度な責任を課せばイノベーションが阻害される一方、責任を問わなければ被害者の救済が図れません。社会は今、AIの有用性と危険性のバランスを取る新しいルール作りを迫られています。
【用語解説】
ハルシネーション(AI Hallucination)
AIが生成した、もっともらしいが事実に基づかない虚偽の情報。大規模言語モデルが次に来る単語を確率的に予測して文章を生成するため、事実確認機能を持たず、存在しない情報を「創作」してしまう現象。法律分野では架空の判例を引用するなど、深刻な問題を引き起こしている。
AI Studio
Googleが提供する開発者向けのプラットフォームで、Gemmaなどの生成AIモデルを試験・開発するための環境。本来は一般消費者向けではなく、開発者がモデルの境界をテストし、バグを特定してフィードバックを提供するためのツールとして位置づけられている。
LLM(Large Language Model / 大規模言語モデル)
膨大なテキストデータで訓練された深層学習モデル。文脈を理解し、人間のような自然な文章を生成できるが、次に来る単語の確率を予測する仕組みのため、真偽の判断能力は持たない。ChatGPT、Claude、Geminiなどがこれに該当する。
通信品位法230条(Section 230)
米国の法律で、インターネットプラットフォームが第三者の投稿コンテンツに対して免責される規定。しかしAIが自ら生成したコンテンツは「第三者」ではないため、この保護が適用されない可能性がある。
Marsha Blackburn上院議員
テネシー州選出の共和党上院議員。2019年から上院議員を務め、テネシー州から選出された初の女性上院議員。保守派として知られ、ビッグテック企業の責任追及やデータプライバシー問題に積極的に取り組んでいる。
名誉毀損における「実質的悪意(Actual Malice)」
米国の名誉毀損法における概念で、公人が名誉毀損訴訟を起こす際に証明しなければならない要件。被告が虚偽であることを知りながら、または真偽を無謀に無視して発言した場合に認められる。AIのハルシネーションにこの概念をどう適用するかが法的課題となっている。
【参考リンク】
Gemma – Google for Developers(外部)
Googleの軽量オープンモデルGemmaの公式ページ。開発者向けに複数のバリエーション、技術仕様、活用事例を提供している。
Senator Marsha Blackburn(外部)
Marsha Blackburn上院議員の公式ウェブサイト。今回の事案に関する公式声明や書簡の全文が掲載されている。
AI Hallucination Cases Database(外部)
生成AIがハルシネーションを起こした裁判例を追跡するデータベース。2025年10月時点で494件以上の事例を記録している。
Hallucinating Law – Stanford HAI(外部)
スタンフォード大学による法律分野におけるLLMハルシネーションの研究報告。69-88%という高いハルシネーション率を報告。
【参考記事】
Google pulls Gemma from AI Studio after Senator Blackburn accuses model of defamation(外部)
TechCrunchによる詳細な報道で保守派によるAI検閲懸念も言及
Blackburn Demands Answers from Google After Gemma Manufactured Fake Criminal Allegations(外部)
Blackburn上院議員の公式声明とGoogleへの書簡全文を掲載
Conservative activist sues Google over AI-generated statements(外部)
Robby Starbuckの1500万ドル訴訟と280万ユーザーへの配信を報道
Hallucinating Law: Legal Mistakes with Large Language Models are Pervasive(外部)
スタンフォード大学研究で法律分野のハルシネーション率69-88%を実証
AI Hallucination in Legal Cases Remain a Problem(外部)
2025年5月32件の裁判例と平均4713ドルの罰金を報告
Conservative Activist Robby Starbuck Alleges Massive Defamation by Google AI(外部)
Starbuck訴訟の法的論点と実質的悪意の立証方法を専門的に解説
Inevitable Errors: Defamation by Hallucination(外部)
イェール大学ロースクールでAIハルシネーションと名誉毀損を法的考察
【編集部後記】
AIが生成した情報を、私たちはどこまで信頼できるのでしょうか。今回の事案は、便利で革新的な技術が、同時に人の評判を一瞬で破壊する力も持っていることを示しています。開発者向けツールだから、消費者向けではないから、という言い訳は、実際に被害を受けた人の前では無力です。私たちがAIを日常的に使うようになった今、その出力を鵜呑みにせず、常に批判的に検証する姿勢が求められているのかもしれません。あなたは、AIが提示する情報をどのように判断していますか?技術の恩恵を享受しながら、その限界と危険性を理解することが、これからの時代を生きる私たち全員に必要なリテラシーなのではないでしょうか。
























