17 天前
从姿态到身份:基于特征中心化的无训练人员再识别
Yuan, Chao, Zhang, Guiwei, Ma, Changxiao, Zhang, Tianyi, Niu, Guanglin

摘要
行人重识别(Person Re-Identification, ReID)旨在提取准确的身份表征特征。然而,在特征提取过程中,个体样本不可避免地受到噪声干扰(如背景杂乱、遮挡以及模型自身局限性)。考虑到经过训练后,同一身份的特征会围绕其身份中心呈正态分布,本文提出一种无需训练的特征中心化ReID框架——Pose2ID,通过聚合同一身份的特征来降低个体噪声,增强身份表征的稳定性,同时保留特征原有的分布特性,以支持后续策略(如重排序)的高效应用。具体而言,为获取同一身份的样本,我们引入两个核心组件:身份引导行人生成(Identity-Guided Pedestrian Generation)——利用身份特征引导图像生成过程,生成具有多样姿态的高质量图像,即使在红外成像、遮挡等复杂场景下也能保持良好的身份一致性;邻域特征中心化(Neighbor Feature Centralization)——从每个样本的邻域中探索其潜在的正样本,进一步提升特征的聚类效果。实验结果表明,所提出的生成模型具备强大的泛化能力,并能有效维持高身份一致性。在采用ImageNet预训练模型且无需ReID微调的情况下,Pose2ID框架在Market1501数据集上取得了52.81%的mAP和78.92%的Rank-1准确率,表现极为出色。此外,该方法在标准ReID、跨模态ReID以及遮挡ReID任务中均取得了新的最先进性能,充分展现了其卓越的适应性与鲁棒性。