
摘要
车辆重识别(re-id)面临的一个根本性挑战是如何在不同摄像头视角下,针对类内车辆存在显著差异的情况下,学习到鲁棒且具有区分性的视觉表征。由于现有车辆数据集在训练图像数量和视角覆盖方面均存在局限,本文提出通过整合四个公开的车辆数据集,构建一个独特的大规模车辆数据集(命名为VehicleNet),并设计了一种简单而有效的两阶段渐进式方法,以从VehicleNet中学习更加鲁棒的视觉表征。本方法的第一阶段通过传统的分类损失函数,在所有源域(即原始车辆数据集)上学习通用的表征,该阶段不依赖目标域信息,从而放松了训练域与测试域之间的完全对齐要求。第二阶段则在目标车辆数据集上对预训练模型进行微调,通过最小化VehicleNet与任意目标域之间的分布差异,进一步提升模型的适应能力。本文详细介绍了所提出的多源数据集VehicleNet,并通过大量实验验证了两阶段渐进式表征学习方法的有效性。在AICity Challenge的私有测试集上,我们取得了86.07%的mAP(平均精度均值)的当前最优性能,在另外两个公开的车辆重识别数据集VeRi-776和VehicleID上也取得了具有竞争力的结果。我们期望这一新的VehicleNet数据集以及所学习到的鲁棒表征,能够为真实场景下的车辆重识别任务提供有力支持,推动该领域的进一步发展。