Last Updated on 2025-06-27 07:50 by admin
米国サンフランシスコの連邦地方裁判所のWilliam Alsup判事は2025年6月24日頃、AI企業Anthropicが著者の許可なく書籍を使用してClaude大規模言語モデルを訓練したことについて、著作権法上の「フェアユース」に該当し違法ではないとの判決を下した。
対象となったのはAndrea Bartz、Charles Graeber、Kirk Wallace Johnsonの3名の作家による書籍である。米国著作権法では故意の著作権侵害に対し、1作品あたり最大15万ドルの法定損害賠償が科される可能性がある。この判決は生成AIの文脈でフェアユースを扱った米国初の重要な司法判断となる。
一方で同判事は、Anthropicが700万冊以上の海賊版書籍を「中央ライブラリ」に保存・複製したことは著作権侵害に該当し、フェアユースではないと判断した。
この侵害に対する損害賠償額を決定するため、2025年12月に裁判が予定されている。Amazon(40億ドル投資)とAlphabet(3億ドル投資)が支援するAnthropicに対する集団訴訟は、OpenAI、Microsoft、Meta Platformsなど他のAI企業に対する類似訴訟の一つである。
From: Anthropic did not breach copyright when training AI on books without permission, court rules
【編集部解説】
今回の判決は、AIの学習プロセスそのものに一定の法的保護を与えた一方で、その「原料」となるデータの入手方法に極めて厳しい目を向けた点で、AI業界に衝撃を与えています。これは単なる勝利ではなく、巨大な法的・財務的リスクを浮き彫りにした「諸刃の剣」と言えるでしょう。
裁判資料によれば、Anthropicの共同創業者であるBen Mann氏が、2021年から2022年にかけて「Library Genesis」や「Pirate Library Mirror」といった著名な海賊版サイトから、違法性を認識しつつ合計700万冊以上をダウンロードしたとされています。
さらに驚くべきことに、同社のCEOであるDario Amodei氏は、正規のライセンス契約交渉を「法的・実務的な面倒」とみなし、意図的に海賊版の利用を選択したと指摘されています。これは偶発的な過失ではなく、コスト削減と開発速度を優先した結果の、組織的な著作権侵害であった可能性を示唆しています。
William Alsup判事は、この海賊版書籍で「中央ライブラリ」を構築した行為について、「いかなる公正利用の要素もこれを正当化しない」と断罪しました。そして、「インターネットから盗んだ書籍のコピーを後から購入しても、盗難の責任は免れない」と厳しく指摘し、データの出所がクリーンでなければならないという明確なメッセージを発信したのです。
この判決は、AI業界で横行してきた「まずデータを集め、問題は後で考える(scrape first, ask questions later)」という時代の終わりを告げるものです。今や、データのサプライチェーン全体における法的正当性、すなわち「データの来歴」が、企業の存続を左右するほどの重要事項となりました。Anthropicだけでなく、OpenAIやMicrosoftなど、同様の訴訟を抱える全てのAI企業は、自社のデータ収集プロセスが法的にクリーンであることを証明する責任を負うことになります。
12月に予定されている裁判では、この700万冊の著作権侵害に対する損害賠償額が争点となります。1作品あたり最大15万ドルの法定損害賠償が適用されれば、その額は理論上、数十億ドルに達する可能性も否定できません。AmazonやGoogleという巨大資本の支援を受けるAnthropicにとってさえ、これは致命的な打撃となりかねない、まさに「ハイリスクな裁判」なのです。
【用語解説】
フェアユース(Fair Use)
米国著作権法における重要な概念で、特定の条件下で著作権者の許可なく著作物を使用できる法的原則である。「使用の目的と性格」「著作物の性質」「使用された部分の量と実質性」「著作物の潜在的市場への影響」の4要素で判断される。
大規模言語モデル(LLM)
膨大なテキストデータで訓練された人工知能システムで、人間のような自然な文章生成や対話が可能な技術である。ChatGPTやClaudeなどが代表例。
変革的使用(Transformative Use)
著作権法において、元の作品とは異なる新しい目的や意味を持つ使用方法を指す。フェアユース判定の重要な要素となる。
Constitutional AI
Anthropicが開発したAI安全技術で、AIシステムが倫理的規範に従って動作するよう設計された手法である。
海賊版ライブラリ(Shadow Libraries)
Books3、Library Genesis(LibGen)、Pirate Library Mirror(PiLiMi)など、著作権で保護された書籍を違法に配布するオンラインデータベースの総称である。
【参考リンク】
Anthropic公式サイト(外部)
AI安全性と研究に特化したAI企業の公式サイト。Claude AIの開発元で、責任あるAI開発を目指す企業理念や研究成果を紹介している。
Claude AI(外部)
Anthropicが開発したAI対話システムの公式サイト。安全性、正確性、セキュリティを重視した次世代AIアシスタントとして設計されている。
【参考記事】
Anthropic wins key US ruling on AI training in authors’ copyright lawsuit – Reuters(外部)
サンフランシスコ連邦地裁がAnthropicのAI訓練を「フェアユース」と認定した判決について詳細に報じている。
Anthropic wins ruling on AI training in copyright lawsuit but must face trial – AP News(外部)
AI業界にとって重要なテストケースとなった今回の判決について、変革的使用の概念と海賊版ライブラリ問題の両面から分析している。
Anthropic Scores a Landmark AI Copyright Win—but Will Face Billions in Damages – WIRED(外部)
フェアユース勝訴の一方で、700万冊の海賊版書籍使用により損害賠償を求められる可能性について詳しく解説している。
【編集部後記】
私たちが日常的に触れる生成AIの驚くべき能力。その裏側で、その「原料」となるデータがどこから来ているのか、考えたことはあるでしょうか。
今回の判決は、技術の進歩と、その根底にあるべき倫理や法の遵守との境界線をどこに引くべきか、私たち一人ひとりに重い問いを投げかけています。