Command Palette
Search for a command to run...
Lujain Ibrahim Katherine M. Collins Sunnie S. Y. Kim Anka Reuel Max Lamparth et al

摘要
大型语言模型(LLMs)相较于以往的技术,其独特之处在于能够作为协作型“思维伙伴”,以更加自然流畅的方式进行语言交互。随着LLMs在医疗健康、个人咨询等多个关键领域日益影响重大决策,人们对LLMs的过度依赖——即在超出其实际能力范围的情况下盲目信任——风险也持续上升。本文立场论文主张,衡量并缓解过度依赖问题必须成为LLM研究与应用的核心议题。首先,我们系统梳理了过度依赖在个体层面与社会层面带来的多重风险,包括高风险错误、治理难题以及认知能力退化等。随后,我们探讨了LLM自身特性、系统设计要素以及用户认知偏见等因素的共同作用,这些因素在实践中引发了严重且独特的过度依赖问题。此外,我们回顾了历史上用于衡量过度依赖的方法,识别出三个关键性缺口,并提出了三个具有前景的改进方向。最后,我们提出了一系列可由人工智能研究界推进的缓解策略,以确保LLMs真正增强而非削弱人类能力。