
摘要
在机器学习中,通常观察到标准训练得到的模型对分布内(in-distribution, ID)和分布外(out-of-distribution, OOD)数据均会输出异常高的置信度。因此,有效检测OOD样本对于模型的实际部署至关重要。OOD检测的一个关键步骤是事后评分(post-hoc scoring)。MaxLogit是一种最简单的评分函数,其利用最大logit值作为OOD得分。为从新视角研究基于logit的评分方法,我们提出将logit重新分解为余弦相似度(cosine similarity)和logit模长(logit norm),并相应地引入MaxCosine与MaxNorm作为新的评分指标。实验发现,MaxCosine是MaxLogit有效性的核心因素,而MaxNorm则在一定程度上制约了MaxLogit的性能表现。为解决该问题,我们提出解耦型MaxLogit(Decoupling MaxLogit, DML),以灵活地平衡MaxCosine与MaxNorm的贡献。为进一步凸显方法的核心思想,我们基于新洞察——即较少的困难样本(hard samples)和紧凑的特征空间是提升基于logit方法性能的关键——进一步将DML扩展为DML+。我们在CIFAR-10、CIFAR-100和ImageNet等基准数据集上验证了所提基于logit的OOD检测方法的有效性,并取得了当前最优的性能表现。