维基百科如何抵御AI生成的低质内容侵袭
随着AI写作工具的普及,维基百科编辑们正面临大量低质、包含虚假信息和伪造引用的AI生成内容的冲击。为此,维基百科志愿者社区已启动应对机制,其产品总监马歇尔·米勒将这一行动比作“免疫系统”对新威胁的适应与反击。“他们始终警惕,确保内容保持中立与可靠,”米勒表示,“当互联网环境变化,AI出现时,这个系统也在不断进化,以应对新挑战。” 为应对泛滥的AI“垃圾内容”,维基百科引入了“快速删除”规则。以往,被举报的文章需经历七天的社区讨论才能决定是否删除,而新规则允许管理员在确认文章明显由AI生成且未经提交者审阅时,直接快速删除,无需等待讨论。判断依据包括三大特征:内容空洞、缺乏来源、语言风格高度模式化。 此外,维基百科“AI清理项目”整理出一系列AI生成内容的典型特征,如滥用破折号“—”、频繁使用“此外”“更进一步”等连接词、使用“令人惊叹”等过度宣传性语言,以及使用花体引号和撇号等格式问题。但维基百科也强调,这些特征不能单独作为判定AI生成的唯一标准。 值得注意的是,快速删除机制不仅针对AI内容,也适用于骚扰性、虚假信息、恶意破坏或逻辑混乱的文本。此前,维基媒体基金会曾因在文章顶部试点AI摘要功能而引发社区强烈反对,最终暂停实验。尽管如此,基金会仍认为AI具有潜力,关键在于如何正确使用。 米勒指出,AI是一把双刃剑:它既助长了低质量内容的泛滥,也可能成为编辑的有力工具。目前,基金会已利用AI识别恶意编辑,并在最新AI战略中提出支持编辑使用AI自动化重复任务、辅助翻译。同时,正开发名为“编辑检查”(Edit Check)的非AI工具,帮助新用户遵守写作规范,例如提醒补全引用、检查语气中立性。未来还将加入“粘贴检查”功能,提示用户确认大段内容是否原创,并有用户建议要求作者说明AI生成比例。 “我们正跟随社区的脚步,关注他们认为有效的做法,”米勒表示,“当前重点是帮助编辑做出建设性修改,同时协助巡查者聚焦真正需要关注的改动。”