AI聊天机器人为何“胡说八道”?OpenAI揭秘幻觉背后的真相
OpenAI研究人员近日在一篇新论文中指出,大型语言模型(LLM)产生“幻觉”——即生成看似合理但实际错误的信息——的根本原因在于其训练方式。这些模型在训练过程中被鼓励“猜”而不是承认不确定,从而导致它们在面对未知时倾向于编造答案,而非坦承无知。 研究人员发现,当前主流的评估体系本质上是“考试模式”,模型被训练为在答题中追求高分。在这种机制下,即使不确定,也选择给出一个答案,反而能提高得分。因此,模型学会了“装作知道”,哪怕是在没有把握的情况下。这种“猜对得分、认错扣分”的机制,使得模型在真实世界中表现失准,因为现实往往充满不确定性,而非非黑即白的判断。 论文指出,人类在现实生活中通过经验学会表达不确定,但语言模型却主要在“考试”环境中被训练,而这类考试通常惩罚“不知道”,鼓励“给出答案”。这导致模型缺乏对不确定性的正确认知。 值得庆幸的是,研究团队认为问题有解——关键在于重新设计评估标准。他们强调,当前存在大量“不一致”的评估体系,必须调整评分机制,不再惩罚模型在不确定时选择不回答。如果评分系统继续奖励“侥幸猜对”,模型就会持续学习“胡说八道”。 OpenAI在配套博客中进一步说明,现有的基于准确率的评估方法必须更新,使其不再鼓励猜测行为。只有当“正确答案”不再依赖于“猜对”,模型才会真正学会在不确定时说“我不知道”。 这一发现为提升大模型可靠性提供了重要方向,也为未来更安全、更可信的AI系统发展奠定了基础。
