3 个月前
视角感知损失结合角度正则化用于行人重识别
Zhihui Zhu, Xinyang Jiang, Feng Zheng, Xiaowei Guo, Feiyue Huang, Weishi Zheng, Xing Sun

摘要
尽管近年来监督式行人重识别(Re-ID)取得了显著进展,但由于行人视角变化带来的视觉差异,该任务仍面临巨大挑战。现有的多数基于视角的行人Re-ID方法将不同视角的图像投影到彼此独立且无关的子特征空间中,仅建模了单一视角内的身份级分布,而忽略了不同视角之间的潜在关联。为解决这一问题,本文提出一种新方法——视角感知角正则化损失(Viewpoint-Aware Loss with Angular Regularization, VA-reID)。与为每个视角单独设置子空间的传统方法不同,我们的方法将来自不同视角的特征统一映射到一个超球面空间中,从而在身份级别和视角级别上均能有效建模特征分布。此外,不同于传统视角分类中将视角视为硬标签的做法,我们引入了视角感知自适应标签平滑正则化(Viewpoint-Aware Adaptive Label Smoothing Regularization, VALSR),为特征表示分配自适应的软标签,有效缓解了视角聚类标签分配的模糊性问题。在Market1501和DukeMTMC-reID数据集上的大量实验表明,所提方法在性能上优于当前最先进的监督式Re-ID方法。