生成但验证:通过回顾性重采样减少视觉-语言模型的幻觉
Tsung-Han Wu, Heekyung Lee, Jiaxin Ge, Joseph E. Gonzalez, Trevor Darrell, David M. Chan
发布日期: 4/18/2025

摘要
视觉-语言模型(VLMs)在视觉理解方面表现出色,但常常受到视觉幻觉的影响,即生成对不存在的物体、动作或概念的描述,这在安全关键应用中带来了显著的风险。现有的幻觉缓解方法通常遵循两种范式之一:生成调整,通过修改解码行为使文本与视觉输入对齐;以及事后验证,利用外部模型评估和纠正输出。虽然这些方法有效,但生成调整方法往往依赖于启发式方法且缺乏校正机制,而事后验证则较为复杂,通常需要多个模型,并倾向于拒绝输出而非对其进行优化。在本研究中,我们引入了REVERSE框架,该框架将幻觉感知训练与即时自我验证相结合。通过利用包含超过130万个半合成样本的新幻觉验证数据集,以及一种新颖的推理时回顾性重采样技术,我们的方法使VLMs能够在生成过程中检测幻觉,并动态地修正这些幻觉。评估结果显示,REVERSE在减少幻觉方面达到了最先进的水平,在CHAIR-MSCOCO数据集上比现有最佳方法高出12%,在HaloQuest数据集上高出28%。我们的数据集、模型和代码可在以下网址获取:https://reverse-vlm.github.io。