17 天前

协同注意力对齐的互交叉注意力用于换衣人员重识别

{xiangyang xue, Yanwei Fu, Xuelin Qian, Qizao Wang}
协同注意力对齐的互交叉注意力用于换衣人员重识别
摘要

行人重识别(Person Re-Identification, Re-ID)近年来受到广泛研究,并取得了显著进展。然而,传统行人重识别方法主要依赖于与衣物相关的颜色外观特征,在实际场景中当行人更换衣物时,此类特征往往不可靠。针对这一问题,近年来衣物变化下的行人重识别(Cloth-Changing Person Re-ID)逐渐受到关注,但由于衣物变化导致图像特征空间中类内差异增大、类间差异减小,学习具有判别性的行人身份特征变得更加困难。除了外观特征外,图像中还隐含着一些与身份相关但不依赖于衣物的特征(例如身体轮廓)。本文首次提出一种新型的形状语义嵌入(Shape Semantics Embedding, SSE)模块,用于编码身体形状的语义信息,该信息是行人换衣后区分个体的关键线索之一。为进一步增强图像特征的表达能力,我们进一步设计了一种协同注意力对齐的互注意力机制(Co-attention Aligned Mutual Cross-attention, CAMC)框架。与以往基于注意力的特征融合策略不同,该框架首先对多模态特征进行对齐,随后在图像空间与身体形状空间之间高效地交互并传递具有身份感知但与衣物无关的知识,从而获得更具鲁棒性的特征表示。据我们所知,这是首个将Transformer架构应用于衣物变化场景下多模态交互建模的行人重识别工作。大量实验结果验证了所提方法的有效性,并在多个衣物变化行人重识别基准数据集上取得了优异的性能表现。代码将公开于:https://github.com/QizaoWang/CAMC-CCReID。