16 天前

监督对比学习

Prannay Khosla, Piotr Teterwak, Chen Wang, Aaron Sarna, Yonglong Tian, Phillip Isola, Aaron Maschinot, Ce Liu, Dilip Krishnan
监督对比学习
摘要

近年来,对比学习(contrastive learning)在自监督表示学习中的应用重新兴起,推动了深度图像模型在无监督训练条件下达到当前最优性能。现代批量对比学习方法在性能上已超越或显著优于传统的对比损失函数,如三元组损失(triplet loss)、最大间隔损失(max-margin loss)以及N元组损失(N-pairs loss)。在本研究中,我们将自监督的批量对比学习方法拓展至全监督设置,从而有效利用标签信息:在嵌入空间中,同一类别的样本点簇被拉近,而不同类别之间的样本点簇则被相互推开。我们分析了监督对比损失(Supervised Contrastive, SupCon)的两种可能形式,识别出表现最佳的损失函数形式。在ResNet-200架构上,我们在ImageNet数据集上实现了81.4%的Top-1准确率,较此前报道的该架构最佳结果高出0.8%。此外,在其他多个数据集及两种ResNet变体上,该损失函数均持续优于交叉熵损失。实验表明,该损失函数在应对自然退化(natural corruptions)时具有更强的鲁棒性,并对超参数设置(如优化器选择、数据增强策略)表现出更高的稳定性。该损失函数实现简单,相关TensorFlow参考代码已公开发布于 https://t.ly/supcon。