
摘要
在深度度量学习(Deep Metric Learning, DML)中,挖掘具有信息量的负样本至关重要,然而这一任务在小批量训练(mini-batch training)的框架下受到天然限制——每次迭代仅能访问当前小批量中的样本。本文通过观察发现,在整个训练过程中,尽管模型参数持续更新,但嵌入特征的演化呈现出一种“缓慢漂移”(slow drift)现象。这一现象表明,先前迭代中计算得到的样本特征可以较为准确地近似当前模型所提取的特征。基于此,我们提出了一种跨批量记忆机制(Cross-Batch Memory, XBM),该机制能够记忆历史迭代中的嵌入特征,使模型能够在多个小批量之间甚至全数据集范围内高效收集充足的困难负样本对(hard negative pairs)。XBM可无缝集成至通用的基于样本对的DML框架中,显著提升模型性能。实验表明,在不依赖复杂技巧的前提下,仅使用简单的对比损失函数结合XBM,即可在三个大规模图像检索数据集上实现12%至22.5%的R@1指标大幅提升,显著超越当前最先进的复杂方法。此外,XBM在概念上简洁清晰,实现极为简便(仅需数行代码),且内存效率高,额外仅需约0.2 GB的GPU显存开销。代码已开源,地址为:https://github.com/MalongTech/research-xbm。