生成式 AI 這兩年最常見的一種想像,是它終究會慢慢吃進所有內容流程,從摘要、翻譯、改寫到正式成文都只是時間問題。英文維基百科這次把邊界明文化,直接對這種想像踩了煞車。新出現的官方專頁明白寫出: 使用 LLM 來生成或重寫條目內容原則上禁止,只保留兩個例外,也就是基礎 copyediting 和翻譯。這個動作的重要性,不在它是不是「全面反 AI」,而在它代表大型知識社群終於開始把可接受與不可接受的使用方式寫成規範,而不是繼續停留在模糊共識。
先把範圍講清楚很重要。這裡講的是英文維基百科社群,而不是整個 Wikimedia 運動一次性全面改完所有站點政策;它限制的是條目內容的生成與重寫,而不是所有 AI 協助工具都被一刀砍掉。官方頁面明講的兩個例外,恰好也說明了社群現在真正擔心的是什麼: 不是所有機器協助都不能碰,而是不能讓模型直接成為百科條目實質內容的作者。只要越過那條線,問題就不再只是寫得順不順,而是可核查性、責任歸屬、幻覺與社群審核能不能繼續運作。
這條規範真正回應的,是百科社群最怕失去的三件事
第一是可驗證性。維基百科一直不是以「寫得像不像人」作為標準,而是要求內容能對回來源、能被其他編者逐步核查。模型生成的文字即使語氣穩、結構漂亮,也可能在細節上出現 幻覺,更麻煩的是,這種錯誤往往不是明顯亂寫,而是摻在看似正常的敘述裡。
第二是責任歸屬。傳統社群編輯模式雖然慢,但至少每一段文字都能回到某個編者的判斷、來源選擇與討論紀錄。當模型開始大規模重寫條目時,責任鏈會突然變模糊: 這句話是誰選的?哪個來源被忽略?哪個措辭是模型自行補出來的?對一般內容平台來說,這些問題可以先忍;對百科社群來說,這些問題正好打在核心制度上。
第三是社群維運成本。只要模型文字大量流入,資深編者面對的就不再只是普通品質編輯,而是更像被流暢文字包裝過的低可信內容。這種內容最耗時間,因為它不像明顯 vandalism 一眼就能回退,反而需要更多人工逐句核對。從社群治理角度看,這比低品質手工編輯更難處理。
兩個例外其實也很有意思,因為它們畫出了社群目前願意接受的 AI 角色
官方目前保留的例外是基本 copyediting 與翻譯。這個安排很關鍵。它等於承認模型在某些低風險、可人工復核的任務上仍有實用價值,例如修飾語句、統一文法、協助語言轉換;但一旦進到內容選擇、知識組織、事實重寫和段落再生成,社群就不願意讓模型跨過去。
這條線背後其實是一種很務實的分工觀。百科社群不是否認模型能幫忙,而是把它壓回「工具」位置,而不是「作者」位置。從外部看可能像保守,從治理角度看卻很合理,因為它保留了人工編輯流程的核心結構,同時吸收了最不具爭議的效率增益。
為什麼這件事不只跟 Wikipedia 有關
因為它很可能是更大一波內容治理收斂的前兆。過去一年,各種內容平台和企業內部知識庫都在試探 AI 能進到哪一步,但大多還停在產品實驗或模糊口頭原則。英文維基百科這次把條文寫出來,等於率先示範了一種更嚴格的治理框架: 不是問模型可不可以協助,而是問哪些任務類型能被接受進正式內容生產流程。
這對其他知識密集型組織會很有參考價值。法律資料庫、醫療知識平台、企業知識中台、教育內容社群,接下來都可能面對同一個問題: 如果生成式 AI 確實能提高速度,那制度上到底允許它做哪些事,又有哪些事不能交出去?Wikipedia 的答案不一定會被原樣複製,但它至少把討論層級往前推了,不再只說「小心使用」,而是直接說「這一類不行」。
這條紅線也提醒了一件常被忽略的事:內容產業不是只看生成能力,還看審核制度能否承受
很多人看生成式 AI 只看輸出效果,但真正決定能不能落地的,往往是後面的審核結構。對 Wikipedia 這種靠分散志工共同維護的系統來說,如果一種工具會讓人工核查成本大幅升高,那它即使理論上能寫出不錯的文字,也很難被制度接受。這種思路其實很值得其他平台借鏡: 模型能力越強,不代表所有社群都必須把它放進核心內容流程;重點在於原本的審核與責任機制是否還撐得住。
當然,這不表示政策已經塵埃落定。英文維基百科近期還有與 AI 相關的其他討論,包括 blocking policy 是否把 LLM 使用列入處理理由、AI 生成 essay 該怎麼管、以及更廣義的 responsibly using large language models 指引。這些討論說明一件事: 社群不是只想解一個條目問題,而是在全面調整自己和生成式工具的相處方式。
所以這則消息真正值得記住的,不是「Wikipedia 禁了 AI」這種太粗糙的標題,而是知識社群終於開始替生成式 AI 劃出工作邊界。當邊界一旦被寫進規範,接下來比的就不只是誰的模型更會寫,而是誰能在不破壞可驗證性、責任鏈和社群治理的前提下,找到真正可被接受的協作位置。
