麻省理工学院被曝违反自身AI生成研究规定
7 天前
麻省理工学院(MIT)近日被曝违反自身关于人工智能生成研究的政策,引发学术伦理争议。一篇发表于MIT旗下期刊的“人工智能与心理健康”研究论文被指大量使用AI生成内容,文中充斥着典型的AI套话,引发学界对科研诚信的担忧。 文章开篇即出现令人警觉的表述:“一种融合技术防护与更广泛社会干预的综合方法,旨在促进有意义的人际联结。”这类语言高度模板化,缺乏具体实证支撑,正是人工智能生成文本的典型特征。评论者指出,此类表达空洞、泛泛而谈,明显违背了科学研究应具有的精确性与原创性原则。 尽管MIT此前已出台明确政策,禁止在未充分披露的情况下使用AI工具撰写或修改学术论文,尤其在涉及人类健康等敏感领域,但此次事件表明,政策执行仍存在漏洞。更令人担忧的是,AI被用于心理健康研究,而该领域对伦理、责任和个体差异要求极高,AI模型既缺乏临床经验,也无法真正理解人类情感,其介入可能带来误导甚至伤害。 批评者指出,学生用AI作弊尚属可容忍范围,但专业研究人员滥用AI撰写论文,将严重侵蚀科学记录的可信度,动摇知识体系的根基。若研究结论建立在AI生成的“伪知识”之上,整个学术生态将面临系统性风险。 此事也暴露出当前AI在学术界应用的深层矛盾:一方面,AI可提升效率,辅助文献综述与数据分析;另一方面,若缺乏透明度与责任机制,其滥用将危及科学精神本身。MIT作为全球顶尖科研机构,此次事件不仅挑战了其学术声誉,也再次敲响警钟:技术进步必须与伦理规范同步,否则再先进的工具,也可能成为科学诚信的破坏者。
Related Links
Generative Al Community