11 天前
基于隐式异常值转换的分布外检测
Qizhou Wang, Junjie Ye, Feng Liu, Quanyu Dai, Marcus Kalander, Tongliang Liu, Jianye Hao, Bo Han

摘要
异常暴露(Outlier Exposure, OE)在分布外(Out-of-Distribution, OOD)检测中具有显著效果,其通过使用代理分布外数据对模型进行微调,有效提升了检测能力。然而,常见的代理数据通常与实际测试阶段的分布外数据存在偏差,导致在面对未见的分布外样本时,OE方法的性能可能下降。为解决这一问题,本文提出一种新型基于OE的方法,使模型在面对未见的分布外情形时仍能保持良好表现,包括对从未见过的分布外样本的检测能力。该方法构建了一种极小-极大学习框架——即在训练过程中主动寻找能够导致模型判断最差的分布外数据,并基于此类数据进行学习,从而实现分布外检测性能的均衡化。在具体实现中,这些“最差”分布外数据通过变换原始代理数据生成。关键在于,我们提出了一种新颖的洞察:模型扰动可诱导数据空间的变换。基于此,我们隐式地学习了相应的数据变换函数,从而高效合成更具挑战性的分布外样本。该方法不仅补充了原始代理分布外数据,还为检测模型提供了更丰富的训练信号,显著增强了模型对未知分布外样本的鲁棒性。我们在多种典型的分布外检测设置下进行了大量实验,结果表明,所提方法在性能上显著优于现有先进方法,充分验证了其有效性与普适性。