AnthropicはClaude AIのFree、Pro、Maxプランユーザーに対し、チャット履歴のデフォルト保存期間を30日から5年間へ大幅に延長するプライバシー方針の変更を発表した。
既存ユーザーには「Claudeの改善に協力する」機能からのオプトアウトを選択できるポップアップが1ヶ月間表示される。オプトアウトした場合でも30日間は保存される。The Registerの記事によると、不適切なコンテンツとしてフラグが立てられたチャットは7年間保持される可能性がある。
Proユーザーは月額20ドル、Maxユーザーは月額100ドルを支払っているが、この新しいデータ収集ポリシーから除外されない。ただし商用、教育、政府顧客、およびAmazon Bedrock、Google CloudのVertex AIなどの商用パートナー経由のAPI使用は対象外となる。
AnthropicはUS General Services Administrationとの政府契約を狙っている。同社は北朝鮮による悪意ある利用を1件阻止したことも明らかにした。
From: Anthropic changing default storage for Claude chats to 5 yrs
【編集部解説】
Anthropicのこの発表は、AI業界における重要な転換点を示しています。これまで同社はユーザーのチャットデータをモデル訓練に使用しない「プライバシー重視」の立場を取っていましたが、今回の方針変更により、データ活用を前提とした競争環境への本格参入を表明したことになります。
注目すべきは、データ保存期間が30日から5年間(1,826日)へと大幅に延長される点です。これは競合他社と比較しても長期間の設定となっており、AIモデルの継続的な改良により多くのデータを蓄積したいというAnthropic側の意図が見て取れます。
興味深いのは、商用・教育・政府顧客は今回の変更対象外となっている点です。これはB2B市場における信頼性確保と、コンシューマー市場での競争力強化を両立させる戦略といえるでしょう。実際、米国総合調達庁(GSA)との契約では、AnthropicはClaude AIを政府機関に月額1ドルという破格の価格で提供しており、政府市場での地位確立を優先していることが分かります。
一方で、セキュリティ面では深刻な課題も浮上しています。Anthropicは北朝鮮の工作員がClaudeを悪用してIT企業への偽装就職を行ったケースを公表しており、AIの悪用防止が急務となっています。ランサムウェア開発支援や企業への侵入支援など、高度な技術を持たない犯罪者でもAIを活用することで複雑な攻撃が可能になる現状が明らかになりました。
この方針変更は、AI業界全体のプライバシー基準に影響を与える可能性があります。ユーザーは9月28日までにオプトアウトを選択できますが、デフォルトでデータ収集に同意する仕組みは、他のAI企業にも同様の手法を促すかもしれません。
長期的には、このデータ収集戦略がAnthropicの技術競争力をどの程度向上させるかが焦点となります。より多くの実際の使用データを活用することで、ChatGPTやGeminiといった競合サービスとの差別化を図る狙いがあると考えられます。
【用語解説】
Claude
Anthropic社が開発した大規模言語モデル(LLM)ベースのAIアシスタント。テキスト生成、コード生成、分析などの機能を提供する。
オプトアウト
利用者がデータ提供などの設定について、明示的に拒否しない限り同意したとみなされる方式。ユーザーは『拒否する(Opt-out)』選択肢を与えられる。
OneGov契約
米国政府機関が民間企業と締結する特別契約形態。今回GSAがAnthropicと1ドルという名目的価格で結んだ契約がこれに該当する。
【参考リンク】
Anthropic(外部)
Claude AIを開発するAI安全性研究企業。責任あるAI開発を掲げ、大規模言語モデルの研究・開発を行っている。
米国総合調達庁(GSA)(外部)
連邦政府機関の調達業務を統括する米国政府機関。政府全体のIT調達や不動産管理を担当している。
【参考記事】
Updates to Consumer Terms and Privacy Policy – Anthropic(外部)
Anthropic公式による新データ保持ポリシーの発表。9月28日までにユーザーが選択する必要があることを説明。
Anthropic users face a new choice – opt out or share your chats for AI training(外部)
TechCrunchによる詳細分析記事。従来30日だったデータ保持期間が5年間に延長される影響を解説。
GSA Strikes Another OneGov Deal with Anthropic to Offer Claude AI(外部)
GSAとAnthropicの1ドル契約に関する公式発表。政府の全3部門にClaude AIを提供する契約内容を詳述。
Anthropic Will Now Train Claude on Your Chats, Here’s How to Opt Out(外部)
MacRumorsによる詳細な解説記事。新ポリシーの実装方法とユーザーがオプトアウトする具体的な手順を説明。
【編集部後記】
皆さんはAIサービスを使う際、データの取り扱いについてどこまで意識されていますか?今回のAnthropicの方針変更は、便利さと引き換えに私たちが何を提供しているのかを改めて考えさせられる出来事です。
無料や低価格でAIを使える背景には、必ず何らかのビジネスモデルが存在します。皆さんはご自身の会話データが5年間保存されることをどう受け止めますか?また、企業向けサービスでは同じ制約がないことについて、どのような印象を持たれるでしょうか?
AIの進化が加速する中で、私たち一人ひとりがデータ主権について考え、自分なりの判断基準を持つことがますます重要になってきそうです。皆さんの率直なご意見やお考えを、ぜひお聞かせください。