英語版 Wikipedia を運営する編集者コミュニティは 2026 年 3 月 20 日、ChatGPT などに代表される大規模 AI(LLM)を使って記事を作成・書き直すことを禁止する新方針を、44 対 2 の圧倒的多数で採択しました。710 万本にのぼる全記事が対象となります。
この方針を最初に提案したのは、フランス在住の AI 研究者志望の学生、Ilyas Lebleu 氏です。同氏は今回の決定を「ここ数年、企業が AI を強引に普及させてきたことへの反発」と表現しており、Wikipedia にとどまらず、他のプラットフォームでも利用者が AI の活用範囲を自ら決められるような動きに発展することを期待しています。
禁止に踏み切った背景には、いくつかの深刻な問題がありました。プリンストン大学が 2024 年 10 月に発表した調査によると、同年 8 月に投稿された新規記事のうち約 5 % が AI によって作成されており、一部は企業や政治的な宣伝目的に利用されていたことも確認されています。また、AI が生成した誤情報がそのまま Wikipedia に掲載されると、今度はその内容を AI 企業が学習データとして取り込み、誤りが次世代モデルに引き継がれていくという連鎖的なリスクも指摘されています。加えて、「AI はコンテンツを数秒で生成できるが、内容の確認・修正には数時間かかる」という負担の非対称性が、ボランティアで成り立つ編集コミュニティを疲弊させている点も問題視されました。
新方針のもとでも、人間が書いた文章の校正や表現の修正を AI に手伝わせたり、他言語版記事の翻訳を補助させたりすることは引き続き認められています。ルール違反の検知は、精度に課題がある AI 検出ツールではなく、人間の編集者が判断する形をとっています。繰り返し違反した場合は「悪意ある編集行為」と判断され、アカウントの停止や永久追放につながる可能性があります。
こうした動きは英語版だけにとどまりません。スペイン語版はすでに AI による記事作成・拡充を全面禁止しており、ドイツ語版も 2026 年 2 月に AI 使用の一部を禁止しています。Wikimedia 財団は、AI チャットボットの台頭により Wikipedia への人間によるアクセスが約 8 % 減少したとも報告しており、Wikipedia の存在感を守るうえでも今回の方針転換は重要な意味を持ちます。
Lebleu 氏はさらに、Wikimedia 財団を通じて AI 企業に働きかけ、「Wikipedia の記事を書いて」という指示を各社の AI が自動的に断る仕組みの導入も検討しています。
