
摘要
深度度量学习(Deep Metric Learning, DML)旨在学习一种表示空间,使得语义关系能够通过预定义的距离度量简洁地表达。目前表现最优的方法通常利用类别代理(class proxies)作为样本的替代表示,以促进模型的收敛性与泛化能力。然而,这类代理方法仅优化样本与代理之间的距离,而所采用的距离函数本身具有非双射性(non-bijective)特性,这可能导致样本在局部呈现出各向同性(isotropic)分布,从而难以有效捕捉局部结构及样本间的类内关系,造成关键语义上下文信息的丢失。为缓解上述问题,本文提出一种基于代理的非各向同性正则化方法(Non-isotropy Regularization, $\mathbb{NIR}$)。该方法借助归一化流(Normalizing Flows)技术,强制要求每个样本能够从其所属类别的代理中实现唯一可逆的映射。这一机制使得我们能够显式地引导样本在代理周围形成非各向同性分布,从而为优化目标提供更具结构化的学习信号。通过这种方式,基于代理的目标函数得以更有效地建模局部结构。大量实验结果表明,$\mathbb{NIR}$ 在标准基准数据集 CUB200-2011、Cars196 和 Stanford Online Products 上均实现了稳定且显著的泛化性能提升,达到了具有竞争力甚至领先于当前最先进水平的性能表现。此外,我们还发现,代理方法原有的优异收敛特性在引入 $\mathbb{NIR}$ 后不仅得以保留,甚至进一步得到改善,使其在实际应用中具有极高的实用价值。代码已开源,可访问:https://github.com/ExplainableML/NonIsotropicProxyDML。