
摘要
我们重新审视了行人重识别(re-ID)领域中两种流行的卷积神经网络(CNN),即验证模型和分类模型。这两种模型由于采用了不同的损失函数,因此各自具有优势和局限性。在本文中,我们将探讨如何结合这两种模型以学习更具区分性的行人描述符。具体而言,我们提出了一种新的孪生网络,该网络能够同时计算识别损失和验证损失。给定一对训练图像,该网络可以预测两张图像的身份以及它们是否属于同一身份。我们的网络同时学习了一个区分性嵌入和一个相似度测量方法,从而充分利用了注释信息。尽管方法简单,但所学的嵌入在两个公开的行人重识别基准上提升了最先进的性能。此外,我们还展示了该架构也可应用于图像检索。