2 个月前

BECLR:批增强对比少样本学习

Poulakakis-Daktylidis, Stylianos ; Jamali-Rad, Hadi
BECLR:批增强对比少样本学习
摘要

从少量标记样本中快速学习是深度表示学习时代区分机器和人类的一个基本属性。无监督少样本学习(U-FSL)旨在通过在训练过程中放弃对注释的依赖来弥合这一差距。受到对比学习方法在U-FSL领域取得成功的启发,我们从结构上探讨了这些方法在预训练和下游推理阶段的不足之处。为此,我们提出了一种新颖的动态聚类记忆(Dynamic Clustered mEmory, DyCE)模块,以促进高度可分离的潜在表示空间,从而在预训练阶段增强正样本采样,并将隐式类别级别的见解注入无监督对比学习中。随后,我们解决了少样本推理阶段中被忽视但至关重要的样本偏差问题。我们提出了一种基于迭代最优传输的分布对齐(Optimal Transport-based distribution Alignment, OpTA)策略,并证明该策略能够高效地解决这一问题,尤其是在少样本场景下,FSL方法因样本偏差而表现最差的情况。进一步讨论表明,DyCE和OpTA是构成一种新型端到端方法(我们称之为BECLR)的两个相互关联的部分,它们相辅相成,共同放大彼此的影响。最后,我们通过一系列广泛的定量和定性实验验证了BECLR在所有现有的U-FSL基准测试中(据我们所知)树立了新的最先进水平,并显著优于当前的最佳基线方法(代码库可在以下地址获取:https://github.com/stypoumic/BECLR)。

BECLR:批增强对比少样本学习 | 最新论文 | HyperAI超神经