
摘要
对比学习在无需标签的情况下显著提升了各类视觉任务中特征的判别能力,然而,标准的对比学习范式(特征 + $\ell_{2}$ 归一化)在领域自适应任务中表现有限。我们发现,其主要原因在于领域自适应优化过程中忽略了类别权重(即最终全连接层的权重),导致特征难以聚集在对应类别权重的附近。为解决这一问题,我们提出了一种简单但强大的概率对比学习(Probabilistic Contrastive Learning, PCL)。PCL突破了传统范式,摒弃了 $\ell_{2}$ 归一化,并将特征替换为概率分布。该方法能够引导概率分布趋向于 one-hot 状态,从而有效缩小特征与类别权重之间的差异。我们通过大量实验验证了 PCL 的有效性,在五个任务上均取得了稳定提升,包括:无监督/半监督领域自适应(UDA/SSDA)、半监督学习(SSL)、UDA 目标检测以及语义分割。尤为突出的是,在 SYNTHIA 数据集上的无监督领域自适应语义分割任务中,PCL 在平均交并比(mean IoU)上超越了复杂的 CPSL-D 方法超过 2%,且训练成本大幅降低(PCL:1 张 3090 显卡,5 天;CPSL-D:4 张 V100 显卡,11 天)。代码已开源,地址为:https://github.com/ljjcoder/Probabilistic-Contrastive-Learning。