
摘要
遮挡行人重识别(Occluded Person Re-Identification, ReID)是一项极具挑战性的任务,主要由于背景噪声增多以及前景信息不完整所致。尽管现有的基于人体解析(human parsing)的ReID方法能够在像素级实现语义对齐,有效应对遮挡问题,但其性能严重依赖于人体解析模型的准确性。大多数监督方法通过引入跨域人体部位标注,额外训练一个独立的人体解析模型,但这一过程面临高昂的标注成本以及域间差异(domain gap)问题;而无监督方法虽将基于特征聚类的人体解析过程集成至ReID模型中,但由于缺乏监督信号,分割结果往往不够理想。本文提出,ReID训练数据集中已存在的先验信息可直接作为监督信号,用于训练人体解析模型,而无需任何额外标注。为此,我们构建了一种新颖的框架——人体协同解析引导对齐(Human Co-parsing Guided Alignment, HCGA),该框架将一个弱监督的人体协同解析网络嵌入ReID网络中,充分挖掘同一行人不同图像间的共享信息。具体而言,人体协同解析网络通过三个一致性准则进行弱监督:全局语义一致性、局部空间一致性以及背景一致性。随后,将行人ReID网络输出的语义信息与深层特征输入至引导对齐模块,从而有效提取前景区域及人体各部位的特征,显著提升遮挡情况下的行人重识别性能。在两个遮挡数据集和两个完整行人数据集上的实验结果表明,所提方法具有显著优势。尤其在Occluded-DukeMTMC数据集上,该方法取得了70.2%的Rank-1准确率和57.5%的mAP,显著优于现有方法。