
摘要
近年来,行人重识别(Re-ID)技术取得了显著进展。然而,现有方法在很大程度上依赖于颜色外观信息,当行人更换衣物时,该类特征的可靠性显著下降。在衣物变化场景下的行人重识别(Cloth-changing Re-ID)面临严峻挑战,因为同一行人在不同着装下的图像表现出较大的类内差异,而类间差异则相对较小。此外,用于识别的关键特征往往隐藏在行人之间细微的体态差异之中。为挖掘此类体态线索以应对衣物变化带来的挑战,本文提出一种细粒度体态-外观互学习框架(Fine-grained Shape-Appearance Mutual learning, FSAM),该框架采用双流结构:在体态流中学习细粒度的判别性体态知识,并将其迁移至外观流,以补充外观特征中与衣物无关的语义信息。具体而言,在体态流中,FSAM在身份信息的引导下,学习细粒度的判别性掩码,并通过一种姿态特定的多分支网络提取细粒度体态特征。为增强外观流中与衣物无关的体态知识,框架在低层与高层特征之间实施密集的交互式互学习机制,实现从体态流到外观流的知识迁移。该设计使得外观流可在无需额外掩码估计计算的前提下独立部署,显著提升了模型的实用性与效率。我们在多个基准的衣物变化Re-ID数据集上对所提方法进行了评估,实验结果表明,FSAM在各项指标上均达到当前最优性能,验证了其在复杂衣物变化场景下的有效性与鲁棒性。