17 天前

共舞需二人:用于深度度量学习的Mixup方法

Shashanka Venkataramanan, Bill Psomas, Ewa Kijak, Laurent Amsaleg, Konstantinos Karantzalos, Yannis Avrithis
共舞需二人:用于深度度量学习的Mixup方法
摘要

度量学习旨在学习一种具有判别能力的表示,使得同类样本的嵌入向量相互靠近,而异类样本的嵌入向量则被拉远。当前最先进的方法主要集中在设计复杂的损失函数或样本挖掘策略上。一方面,度量学习中的损失函数通常同时考虑两个或更多样本;另一方面,现代分类任务中的数据增强方法也往往以两个或多个样本为单位进行操作。然而,将这两种思想相结合的研究仍较为不足。在本工作中,我们旨在弥合这一空白,通过引入 mixup——一种强大的数据增强方法,该方法在训练时对两个或多个样本及其对应的标签进行线性插值——来提升表示学习的效果。这一任务具有挑战性,因为与分类任务不同,度量学习中的损失函数并非对样本可加,因此直接对目标标签进行插值并不直观。据我们所知,本文是首个系统研究在深度度量学习中同时混合样本与目标标签的工作。为此,我们提出了一种广义的损失函数形式,能够涵盖现有的主流度量学习损失函数,并进一步对其进行改造以适配 mixup 框架,从而提出新的方法——Metric Mix(简称 Metrix)。此外,我们引入了一个新的评估指标——“利用率”(utilization),用于证明在训练过程中混合样本能够使模型探索训练类别之外的嵌入空间区域,从而有效提升表示质量。为验证所学表示的优越性,我们在四个基准的深度度量学习数据集上进行了实验,结果表明:在输入、中间特征表示或最终嵌入向量层面结合目标标签进行 mixup 操作,显著优于当前最先进的度量学习方法。