
摘要
行人重识别(Person Re-identification, Re-ID)旨在跨不同摄像头视角匹配同一行人。现有大多数Re-ID方法将其建模为视觉表征学习与图像检索问题,其识别精度在很大程度上受到搜索空间大小的影响。研究表明,时空信息能够有效过滤无关的负样本,显著提升Re-ID性能。然而,现有的时空行人重识别方法仍较为粗略,未能充分挖掘和利用时空信息。为此,本文提出一种新型的实例级与时空解耦行人重识别方法(Instance-level and Spatial-Temporal Disentangled Re-ID, InSTD),以进一步提升识别准确率。在所提出的框架中,行人个性化的运动方向等信息被显式建模,从而进一步缩小搜索空间。此外,本文将时空转移概率从联合分布中解耦至边缘分布,使得异常样本(outliers)也能得到更合理的建模。大量实验分析验证了所提方法的优越性,并深入揭示了其内在机制与有效原因。在Market-1501数据集上,该方法达到90.8%的mAP,较基线模型(82.2%)显著提升;在DukeMTMC-reID数据集上,mAP达到89.1%,相较基线(72.7%)实现大幅改进。为进一步推动行人重识别研究,本文还公开了经清洗后的DukeMTMC-reID数据集列表,以提供更可靠的基准测试支持。相关资源已发布于GitHub:https://github.com/RenMin1991/cleaned-DukeMTMC-reID/