HyperAIHyperAI

Command Palette

Search for a command to run...

OpenAI认为过度自信是大模型幻觉主因

OpenAI最新研究提出,大型语言模型(LLM)产生幻觉(hallucination)的关键原因可能是模型的“过度自信”。所谓幻觉,是指模型生成与事实不符、缺乏依据的信息,并以高确定性语气呈现,误导用户。尽管自ChatGPT发布近三年来,这类错误已显著减少,但其根本成因仍未被完全理解,也难以彻底消除。 OpenAI的实验表明,模型在生成错误答案时,往往伴随着极高的置信度——即它“非常确定”自己说的是对的,哪怕内容完全错误。这种过度自信的行为,可能源于模型在训练过程中被“奖励”了高置信度的输出,而未充分学习如何识别和表达不确定性。 为应对这一问题,OpenAI提出了一种新策略:在训练中引入“奖励谦逊”机制。具体做法是,当模型对答案表现出合理怀疑、使用“可能”“不确定”等措辞时,给予正向反馈;而当它以高置信度输出错误信息时,则进行惩罚。通过这种方式,模型逐渐学会在不确定时“留有余地”,从而降低幻觉发生率。 这一方法在测试中已初见成效:经过“谦逊训练”的模型在面对模糊或未知问题时,更倾向于承认知识局限,而非强行编造答案。这不仅提升了输出的可靠性,也增强了用户对AI系统的信任。 值得注意的是,幻觉的成因复杂,涉及训练数据偏差、模型架构、推理机制等多重因素。过度自信只是其中一个重要环节。但OpenAI的这一发现为解决AI可信度问题提供了新思路——真正的智能不仅在于“说对”,更在于“知道什么时候不该说”。 未来,随着对模型内部认知机制的深入理解,AI或能像人类一样,在面对未知时保持理性与谦逊,而非盲目自信。这或许是通往真正可靠人工智能的关键一步。

相关链接