HyperAIHyperAI

Command Palette

Search for a command to run...

AI审稿人来袭:学术界准备好了吗?

AI评审时代已至,但科学界尚未准备好。长期以来,预印本平台如bioRxiv和medRxiv以其敏捷性打破了传统学术出版的僵化流程,成为科研成果快速传播的“快艇”。如今,这一模式正迎来最具争议的实验:非营利组织openRxiv宣布,已将由以色列初创公司q.e.d Science开发的AI评审工具整合进其平台,为生物医学预印本提供实时反馈。 该AI工具能在30分钟内生成对论文的评估,涵盖原创性判断、逻辑漏洞识别及实验优化建议。对长期受制于漫长审稿周期、甚至被“审稿人2号”刻薄评论折磨的科研人员而言,AI评审无疑是一剂效率良药——它速度快、无利益冲突、可全天候运行。 然而,效率不等于科学 validity。同行评审的核心使命有二:一是验证常规研究的严谨性,检查方法、数据与逻辑;二是识别突破性发现,评估现有范式是否仍适用。前者AI或可胜任,后者却依赖人类的洞察力与批判性思维。 问题在于,AI评审往往回归“平均值”。一项2024年研究发现,GPT-4生成的评审意见高度接近“平均审稿人”的结论,但忽略了审稿人之间本应存在的多样性与张力。当AI将三名专家的独立判断压缩为单一“平均意见”,科学探索中本应存在的思想碰撞与范式挑战,便可能被悄然抹平。 更令人担忧的是,已有研究显示,科学家正尝试在论文中嵌入“隐藏信息”以误导AI评审系统,这暴露了AI在理解深层语义和科学意图上的脆弱性。若我们把科学判断的“把关人”交给一个可能被操纵、缺乏真正理解力的模型,我们解决的或许只是流程问题,却制造了更严重的认知风险。 AI可成为强大辅助工具,但绝不能替代人类的科学判断。在拥抱技术的同时,我们必须警惕:当效率压倒审慎,我们可能正在用算法的“快”换走科学的“真”。

相关链接