18 天前

基于身份引导的人类语义解析用于行人重识别

Kuan Zhu, Haiyun Guo, Zhiwei Liu, Ming Tang, Jinqiao Wang
基于身份引导的人类语义解析用于行人重识别
摘要

现有的基于对齐的方法通常依赖预训练的人体解析模型来实现像素级对齐,但无法识别对行人重识别(person re-ID)至关重要的个人物品(如背包、手提包等)。针对这一问题,本文提出了一种身份引导的人体语义解析方法(Identity-guided Human Semantic Parsing, ISP),仅利用行人身份标签即可在像素级别上同时定位人体部位与个人物品,从而实现对齐的行人重识别。我们设计了级联聚类机制来生成人体部位的伪标签:对于同一行人的所有图像中的像素,首先将其划分为前景与背景,随后将前景像素进一步聚类为不同的人体部位。这些聚类结果被用作人体部位的伪标签,用于监督部位估计,并驱动ISP模型迭代地学习特征表示并重新聚类。最终,基于自学习得到的部位分割结果,提取出人体部位及个人物品的局部特征,且在检索过程中仅使用可见部位的特征。在三个广泛使用的公开数据集上的大量实验表明,ISP在性能上显著优于众多当前最先进的方法。代码已开源,地址为:https://github.com/CASIA-IVA-Lab/ISP-reID。