HyperAIHyperAI

Command Palette

Search for a command to run...

AI代笔评审意见泛滥:顶级人工智能会议遭遇学术诚信危机

人工智能正悄然渗透学术评审体系,引发广泛担忧。在即将于2026年4月于巴西里约热内卢举行的国际学习表征会议(ICLR)上,大量同行评审意见被发现由AI生成。据Pangram Labs开发的AI检测工具分析,约21%的评审意见为完全由大型语言模型(LLM)撰写,超过一半的评审存在AI使用痕迹。 这一发现源于卡内基梅隆大学AI研究员格雷厄姆·尼比格(Graham Neubig)的质疑。他收到的评审意见内容冗长、充斥大量项目符号,且要求进行非标准的统计分析,与常规AI论文评审风格明显不符。为验证怀疑,他公开悬赏,寻求对所有投稿和评审文本进行AI检测。次日,纽约Pangram Labs首席执行官麦克斯·斯珀罗(Max Spero)响应,仅用12小时便完成对19,490篇论文和75,800份评审的全面筛查。 结果显示,15,899份评审为完全AI生成,另有199篇投稿(占1%)被认定为完全由AI撰写,9%的投稿中AI内容占比超过50%。Pangram已将分析结果和检测模型的预印本提交至ICLR 2026,引发学界震动。 许多研究人员表示,此前已对评审内容存疑。哥本哈根大学计算机科学家德斯蒙德·埃利奥特(Desmond Elliott)的论文收到了一份明显偏离主题、包含错误数据和生硬表达的评审,其学生怀疑为AI生成。Pangram的分析证实了这一判断,该评审被标记为“完全AI生成”,并给出了最低评分,使论文处于“可接受与拒稿边缘”,令他深感挫败。 ICLR 2026程序主席、康奈尔大学计算机科学家巴拉萨·哈里哈兰(Bharath Hariharan)表示,这是该会议首次面临AI大规模介入评审的挑战。目前,会议组织方已决定引入自动化工具,对投稿和评审的AI使用情况进行审查,以重建学术信任。 此次事件凸显AI在科研流程中的双刃剑效应:虽提升效率,却也威胁评审公正性。如何在利用AI的同时保障学术诚信,已成为全球学术界亟待解决的难题。

相关链接

AI代笔评审意见泛滥:顶级人工智能会议遭遇学术诚信危机 | 热门资讯 | HyperAI超神经