
摘要
众所周知,行人重识别(person ReID)高度依赖于视觉纹理信息,如衣物特征。尽管近年来该领域取得了显著进展,但现有大多数ReID方法对衣物变化、多人穿着相同衣物等易造成纹理混淆的情况关注甚少。本文提出一种新方法,不再依赖纹理信息,而是通过利用行人的三维形状信息来提升ReID模型对衣物纹理变化的鲁棒性。现有用于行人重识别的三维形状学习方法要么忽略人体的三维结构信息,要么依赖额外的物理设备来获取三维数据。与此不同,本文提出一种新颖的ReID学习框架——3D Shape Learning(3DSL),该框架通过在二维图像上引入三维人体重建作为辅助任务和正则化项,直接从单张二维图像中提取对纹理不敏感的三维形状嵌入表示。基于三维重建的正则化机制促使ReID模型将三维形状信息与视觉纹理解耦,从而学习到具有判别性的三维形状特征。为解决缺乏真实三维标注数据的问题,本文设计了一种对抗性自监督投影(Adversarial Self-supervised Projection, ASSP)模型,可在无真实三维标签的情况下实现有效的三维重建。在多个主流ReID数据集以及纹理混淆场景数据集上的大量实验结果验证了所提方法的有效性与优越性。