11 天前

基于参数高效的三维空间人员再识别

Zhedong Zheng, Nenggan Zheng, Yi Yang
基于参数高效的三维空间人员再识别
摘要

人类生活在一个三维世界中,然而现有的行人重识别(re-id)研究大多局限于二维空间中的语义表征学习,这在本质上限制了对行人的深入理解。为克服这一局限,本文探索了人体三维结构的先验知识。具体而言,我们首先将二维图像投影至三维空间,并提出一种新型的参数高效型全尺度图网络(Omni-scale Graph Network, OG-Net),直接从三维点云中学习行人表征。OG-Net能够有效利用稀疏三维点所提供的局部信息,并以一致的方式融合结构与外观信息。借助三维几何信息,我们得以学习到一种新型的深度重识别特征,该特征不受尺度变化、视角差异等噪声因素的干扰。据我们所知,本工作是首次尝试在三维空间中进行行人重识别的研究。通过大量实验验证,所提方法具备以下优势:(1)显著降低了传统二维空间中的匹配难度;(2)充分挖掘了二维外观与三维结构之间的互补信息;(3)在四个大规模行人重识别数据集上以极少参数量实现了具有竞争力的性能;(4)对未见数据集展现出良好的可扩展性。相关代码、模型及生成的三维人体数据已公开发布于:https://github.com/layumi/person-reid-3d。