「This is the new WikiPedia!」
2001年1月15日、協定世界時19時27分。カリフォルニア州サンディエゴの起業家ジミー・ウェールズは、コンピュータの前でシンプルな一行を打ち込みました。「This is the new WikiPedia!」。その8ヶ月前、専門家による査読を経た百科事典プロジェクト「Nupedia」は、半年間でわずか21の記事しか完成させられませんでした。厳格な品質管理は、知識の民主化という理想を窒息させていたのです。
Wikipediaは、その失敗から生まれました。査読なし、誰でも編集可能、リアルタイムで更新される百科事典。多くの学者は懐疑的でした。ブリタニカ百科事典の編集者は、Wikipediaを「公衆トイレの便座のようなもの」と評しました。誰が最後に使ったかわからない、という意味です。しかし2001年末までに20,000の記事、18の言語版が誕生し、2006年には100万記事を突破しました。
2026年1月15日、Wikipediaは25周年を迎えます。英語版だけで700万記事以上、300以上の言語で6600万記事。約25万人のボランティア編集者が、今日も「中立的な観点」を追求し続けています。しかし2025年5月、ChatGPTの月間トラフィックがWikipediaを追い越しました。AIが人類の知識を学習し、要約し、語る時代に、匿名の人々が議論を重ねて編集し続けることには、どのような意義があるでしょうか?
速さと開放性という賭け
Wikipediaが選んだのは「速さ」でした。専門家の承認を待たず、誰もが知識を追加できる。その選択は、知識の性質そのものについての賭けでもありました。真実は、少数の権威によって認定されるものなのか。それとも、多くの目と手による継続的な修正プロセスを通じて浮かび上がるものなのか。
創設者の一人ラリー・サンガーは、2001年1月11日、「wiki」(ハワイ語で「速い」)と「encyclopedia」を組み合わせた名前を提案しました。1月13日にドメインが登録され、15日に正式ローンチ。その速さは、プロジェクトそのものの哲学を体現していました。2月までに1,000記事、年末には20,000記事。専門家による査読では絶対に不可能な速度でした。
しかし、速さには代償がありました。2005年、ジャーナリストのジョン・セイゲンソーラーが、自身の記事に「ケネディ兄弟の暗殺に関与した疑いがある」という虚偽の記述を発見しました。科学誌Natureは同年、Wikipediaの科学記事の正確性がブリタニカに近いと報告しましたが、ブリタニカは調査手法を「致命的な欠陥がある」と反論しました。Wikipediaは、常に信頼性との戦いの中にありました。
中立性という果てしない戦い
Wikipediaの核心にあるのが「Neutral Point of View(NPOV)」、中立的な観点というポリシーです。2001年に正式化されたこの原則は、「信頼できる情報源によって公表された、すべての重要な見解を、偏りなく、公平に、可能な限り比例的に表現する」ことを求めます。ジミー・ウェールズは、これを「交渉不可能」と呼びました。
2025年11月、この原則が激しく揺さぶられました。「Gaza genocide」という記事をめぐり、ウェールズ自身が介入したのです。記事は冒頭で「イスラエルがジェノサイドを行っている」とWikipedia自身の声として断定していました。その後、編集者によって編集がロックされました。後にウェールズはこの記事の内容を「特に酷いNPOV違反」だと強く非難しました。
編集者たちは反論しました。「Wikipediaはすべての声を平等に扱ったことはない。地球が球形であることに『議論がある』とは書かない。学術的コンセンサスがあるからだ」。実際、複数の政府、NGO、国際法の専門家がガザにおける虐殺(ジェノサイド)を認定していました。しかしWikipediaの創設者は、それでも「中立的でない」と判断したのです。
ライター個人の意見としても、私は学術的コンセンサスと人権の視点を重視します。ガザで起きていることは虐殺であり、断固として許されるべきではありません。しかし、この論争が浮き彫りにしたのは、「中立性」という概念そのものの困難さです。事実を述べることと、立場を取ることの境界線は、どこにあるのか。
2025年3月、Wikimedia Foundationは「NPOV working group」を設立しました。「情報への信頼の低下と、真実についての合意の分断化」に対応するためです。各言語版でNPOVの解釈が異なる現実を前に、共通基準を模索する動きが始まっています。一方で、研究者のヘザー・フォードは警鐘を鳴らしました。「Wikipediaが、自分の中立性の定義を研究者に押し付けている」。プラットフォームが、自分への評価基準を決めることの危険性を指摘したのです。
AIと人間の交差点で
Wikipediaは今、予想もしなかった役割を担っています。ChatGPT、Claude、Gemini——これら大規模言語モデル(LLM)の学習データの「バックボーン」として機能しているのです。Common Crawl、C4と並び、Wikipediaは現代AIの知識基盤となりました。
Wikimedia Foundation自身がこう認めています。「AIモデルからWikipediaを除外すると、品質と信頼性が低下する」。25年間、匿名のボランティアたちが議論を重ね、出典を確認し、中立性を追求してきた知識が、今、AIによって無限に複製され、要約され、再構成されています。しかし皮肉なことに、その恩恵を最も受けているAIが、Wikipediaから人々を遠ざけています。
2025年5月、ChatGPTの月間トラフィックがWikipediaを追い越しました。同年10月、Wikipediaの人間による閲覧数は前年比8%減少しました。AIが直接答えを提供する時代に、わざわざ百科事典を開く理由が薄れているのです。Wikipediaは25周年のテーマに「Knowledge is Human」を掲げましたが、その知識を求める人間は、減り続けています。
編集者も減少しています。アクティブな編集者は約39,000人で、前年比0.15%減。新規編集者の参入は2020年以降、顕著に減少しました。ゲーム、SNS、他のオンライン活動との競合。そして、AIが答えを出してくれる時代に、議論を重ねて記事を編集する動機が弱まっているのかもしれません。管理者権限を持つユーザーも減少し、コミュニティの持続可能性に懸念が生まれています。
25年目の問いかけ
「Hello, World!」から始まった実験は、25年間で人類史上最大の共同編集プロジェクトとなりました。300以上の言語、6600万の記事、25万人のボランティア。専門家の査読ではなく、集合知と継続的な修正を信じた賭けは、ある意味で成功しました。
しかし、その成功は新たな問いを生みました。AIが学習し、人間が去りつつある百科事典。政治的分断が深まる中で揺らぐ中立性の定義。編集者の減少と、コミュニティの持続可能性。Wikipediaは今、25年前とは異なる意味での岐路に立っています。
人間が編集し続ける意味は、AIには複製できないものの中にあるのかもしれません。
Information
【参考リンク】
- Wikipedia 25周年公式サイト
- Wikimedia Foundation年次計画(NPOV共通基準について)
- Gaza genocide記事論争
- Wikipedia統計
- LLMとWikipedia
【用語解説】
NPOV (Neutral Point of View)
中立的な観点。Wikipediaの最も重要な編集方針の一つで、すべての記事が偏りなく、信頼できる情報源に基づき、異なる視点を公平に表現することを求める。
LLM (Large Language Model)
大規模言語モデル。膨大なテキストデータで訓練されたAIシステムで、人間のような文章を生成・理解できる。ChatGPT、Claude、Geminiなどが代表例。
Common Crawl / C4
LLMの学習に広く使われるWebページのアーカイブ。Wikipediaと並んで、現代AIの知識基盤を形成している。


































