Wikipediaは2026年3月20日、大規模言語モデル(LLM)を使った記事コンテンツの生成および書き直しを禁止するポリシーを導入した。禁止対象の例としてChatGPTとGoogle Geminiが脚注で明示されている。例外は2つで、編集者自身の文章に対する基本的なコピーエディット提案については、人間が内容を確認することを前提にAIの使用が認められている。
また、他言語版Wikipediaの記事を英語に翻訳する際にもAIの使用が認められているが、翻訳者は両言語に精通していることが条件だ。ポリシーの違反者への処分方法は明記されていない。なお、Wikimedia FoundationはAI企業に対し、データスクレイピングの停止とEnterprise APIの利用を求めていた。
From:
Wikipedia Bans AI-Generated Content, With Only Two Exceptions|CNET
【編集部解説】
Wikipediaが、英語版に限定した形でLLM(大規模言語モデル)による記事生成・書き直しを正式に禁止しました。この決定は、2026年3月20日に終了したRfC(Request for Comment)——Wikipedia内部の合意形成プロセス——において、賛成44票・反対2票という圧倒的な支持を受けて成立しています。
今回の禁止令が持つ意味は、単なる「編集ルールの変更」を超えています。Wikipediaは世界で最も訪問されるウェブサイトのひとつであると同時に、ChatGPTをはじめとするほぼすべての主要LLMの学習データとして使われてきた、インターネット知識の「源泉」です。ここにAI生成テキストが混入し始めると、誤った情報が百科事典に掲載され、AI企業にスクレイピングされ、次世代のモデルの学習データとして再び取り込まれるという「情報の悪循環」が起きます。これはWikipedia固有の問題ではなく、インターネット上の知識基盤そのものが汚染されていくリスクです。
実際にその脅威は具体的な形で現れています。2026年3月初頭には、「TomWikiAssist」と名付けられた疑いのある自律型AIエージェントが複数の記事を自動生成・編集していたことが発覚しました。AI生成コンテンツを作るのは数秒ですが、その検証と修正には数時間を要します。ボランティアで成り立つWikipediaのエディターコミュニティにとって、この非対称性は深刻な問題です。実際、「最近はLLM関連の管理報告が急増し、エディターたちが疲弊している」という声が内部から上がっていました。
ポリシーの執行面も課題を抱えています。AI検出ツールはいまだ精度が低く、Wikipediaのポリシー自体も「一部のエディターはLLMと似た文体で書くことがある」と明記せざるを得ない状況です。文体や言語的特徴だけでは制裁の根拠にならないと定めており、実質的に違反の発見はモデレーターの目視に委ねられています。活発な監視コミュニティを持たないページほど、AI生成テキストが見過ごされるリスクが高くなります。
ポジティブな側面としては、このポリシーが「禁止一辺倒」ではない点が評価できます。誤字修正・フォーマット調整などの基本的な編集補助と、他言語版からの翻訳支援という2つの例外を残すことで、AIを道具として適切に活用する余地を確保しています。AIを全否定するのではなく、「人間が主体であるための補助」に限定するという思想は、今後の他プラットフォームにとっても参考になるモデルといえます。
長期的な視点でみると、このニュースにはWikipediaとAI産業の関係という、もう一つの重要な文脈があります。Wikimedia Foundationはすでに、AI企業に対してデータスクレイピングの停止とEnterprise APIの利用を求めています。人間によるページビューは前年比で約8%減少しているのに対し、Wikipediaへのトラフィックのうちリソース消費の多い通信の少なくとも65%がボットに由来すると報告されており、Wikipediaは、AIに知識を与え続けながら、AIによって侵食される側に立たされているのです。
今回のポリシーは英語版Wikipediaのみに適用されますが、Wikipedia管理者のカオティック・エンビー(Chaotic Enby)が「他のプラットフォームのコミュニティが、AIを受け入れるかどうか、どの程度受け入れるかを自ら決めるための草の根運動のきっかけになることを心から願っている」と述べているように、その波及効果は他のプラットフォームや規制議論にまで及ぶ可能性があります。インターネットが「人間の知識の集積」であり続けるために、コミュニティ自らがルールを定めるという動きは、今後の重要なトレンドになるかもしれません。
【用語解説】
LLM(大規模言語モデル)
Large Language Modelの略。膨大なテキストデータを学習し、人間の言語を理解・生成するAIシステムの総称。ChatGPTやGoogle Geminiがその代表例にあたる。
RfC(Request for Comment)
Wikipediaにおける合意形成プロセスの一つで、「意見募集」を意味する。編集コミュニティ全体に対して特定のポリシー変更などの提案を公開し、投票と議論によって合意を形成する仕組み。
ハルシネーション
AIが事実に基づかない情報を、あたかも正確であるかのように自信を持って生成してしまう現象を指す。存在しない参考文献を作り出すといった事例がWikipediaでも報告されている。
スクレイピング(データスクレイピング)
ウェブサイトから自動的に大量のデータを収集する手法のことだ。AI企業がモデルの学習データとしてWikipediaのコンテンツを無断取得するために使用しており、サーバーへの過大な負荷が問題となっている。
【参考リンク】
Wikipedia(英語版)(外部)
誰でも編集に参加できる世界最大のオープンソース百科事典。信頼性・検証可能性を重視した編集ポリシーのもとで運営される非営利プロジェクト。
Wikimedia Foundation(外部)
Wikipediaをはじめとする複数のオープン知識プロジェクトを運営する非営利組織。AI企業のスクレイピング対応やEnterprise APIの提供を通じて知識インフラの持続可能性を担う。
Wikimedia Enterprise(外部)
AI企業や大規模利用者向けに提供する有料データAPIサービス。スクレイピングに代わる公式かつサーバー負荷の少ないデータ提供手段として位置づけられている。
OpenAI(ChatGPT)(外部)
ChatGPTを開発・運営するAI企業。Wikipediaが禁止対象LLMの例として名指しした。親会社Ziff Davisは2025年4月、著作権侵害を理由に同社を提訴している。
Google Gemini(外部)
Googleが開発する大規模言語モデル。ChatGPTと並び、Wikipediaが今回の禁止対象LLMの例として脚注で明示したサービスだ。
【参考記事】
Wikipedia bans AI-generated article content after RfC|Medianama(外部)
RfCの投票結果(賛成44票・反対2票)、ポリシー終了日(2026年3月20日)、AIエージェント「TomWikiAssist」の事例など数値を交えた詳細報道。
Wikimedia Enterprise brings Amazon, Meta and Microsoft into paid Wikipedia data access|TechInformed(外部)
ボットトラフィックが少なくとも65%を占めること、人間のページビューが前年比約8%減少したことなど具体的数値を含む信頼性の高い記事。
Artificial intelligence in Wikimedia projects|Wikipedia(外部)
WikipediaとAIの関係を包括的に整理したWikipedia公式ページ。今回の禁止令に至る経緯や2025年の即時削除ポリシー導入などが確認できる。
Wikipedia:Large language models|Wikipedia公式ポリシーページ(外部)
今回の禁止令の根拠となった公式ポリシーページ。ハルシネーションのリスクやAI検出の限界、執行方法の詳細を原文で確認できる。
Wikipedia has banned AI-generated articles|Engadget(外部)
管理者カオティック・エンビーの「草の根運動のきっかけに」という発言を含む、ポリシーの社会的意義に焦点を当てた解説記事。
Wikipedia bans AI-generated content|404 Media(外部)
「LLM関連の管理報告が急増しエディターが疲弊している」という現場の声を伝え、2026年3月20日の正式発効を確認できる独立系テックメディアの報道。
【関連記事】
Wikipedia、AI企業にデータスクレイピング停止と有料API利用を要請
WikipediaがAI企業によるデータスクレイピング停止とEnterprise APIの利用を求めた背景と経緯。今回の禁止令に至る文脈を理解するうえで最も重なる記事だ。
Grokipedia、イーロン・マスクがAI駆動の百科事典でWikipediaに挑戦状
WikipediaへのAI対抗軸としてGrokipediaが登場した経緯を報じた記事。Wikipedia自身がAIをどう扱うかという今回のテーマと対比して読むと興味深い。
WikipediaがAI要約とSNS動画でトラフィック8%減少|集合知の危機と持続可能性の課題
AIによる検索要約でWikipediaの人間によるアクセスが前年比8%減少した実態を報じた記事。今回の禁止令の背景にある知識インフラの危機を理解できる。
Wikipediaに編集者向けAI導入——知識の信頼性維持と未来志向の編集体制を実現
Wikimedia FoundationがAIを補助ツールとして活用するAI戦略を発表した記事。今回の禁止令と合わせて読むと、WikipediaのAIへのスタンスの全体像が見えてくる。
1月15日【今日は何の日?】「Wikipediaの日」——25年目の問いかけ
Wikipedia25周年を機に、AIと人間の知識基盤の関係を考察したコラム記事。今回の禁止令が問いかけるテーマと通底する内容だ。
【編集部後記】
私たちも毎日のようにAIツールを使いながら、その便利さと不確かさを同時に感じています。
Wikipediaの今回の決断は、そんな私たちに「人間が書くこと」の価値をあらためて問いかけているようにも思えます。あなたはAIと人間の知識、どちらをより信頼しますか?ぜひ聞かせてください。







































