
摘要
在长尾图像分类任务中,学习具有判别性的图像表征起着至关重要的作用,因为它能够缓解类别不平衡情况下分类器的学习难度。鉴于对比学习(contrastive learning)近年来在表征学习领域展现出优异的性能,本文探索了有效的监督对比学习策略,并针对不平衡数据设计相应的优化方法,以提升图像表征质量,从而进一步提高分类准确率。具体而言,本文提出一种新型的混合网络结构,该结构由监督对比损失(supervised contrastive loss)用于学习图像表征,以及交叉熵损失(cross-entropy loss)用于学习分类器组成。网络的学习过程采用渐进式过渡机制:先侧重于特征学习,再逐步转向分类器学习,从而体现“更优的特征可带来更优的分类器”这一核心思想。本文进一步研究了两种用于特征学习的对比损失变体,二者在形式上有所不同,但共享同一核心理念:在归一化嵌入空间中,将同类别样本拉近,同时将不同类别样本推开。其中一种是近期提出的监督对比(Supervised Contrastive, SC)损失,其在当前最先进的无监督对比损失基础上,引入了同类别正样本以增强监督信号;另一种是原型式监督对比(Prototypical Supervised Contrastive, PSC)学习策略,该方法有效缓解了标准SC损失带来的高内存消耗问题,因此在内存资源受限的场景下展现出更强的实用性与潜力。在三个长尾分类数据集上的大量实验结果表明,所提出的基于对比学习的混合网络结构在长尾图像分类任务中具有显著优势,能够有效提升分类性能。