4 个月前

利用多视角进行无标记3D人体姿态注释

Georgios Pavlakos; Xiaowei Zhou; Konstantinos G. Derpanis; Kostas Daniilidis
利用多视角进行无标记3D人体姿态注释
摘要

近期卷积网络(ConvNets)的发展已将许多计算机视觉任务的瓶颈转移到了注释数据的收集上。在本文中,我们提出了一种基于几何的方法,用于自动收集人体姿态预测任务的注释。从一个通用的2D人体姿态卷积网络出发,并假设多视图设置,我们描述了一种自动收集精确3D人体姿态注释的方法。我们利用相机设置提供的3D几何约束和人体的3D结构,以概率方式将每个视图的2D卷积网络预测结果组合成一个全局最优的3D姿态。该3D姿态被用作收集注释的基础。我们的方法自动生成的注释在两个具有挑战性的场景中得到了验证:(i) 对通用的基于卷积网络的2D姿态预测器进行微调,以捕捉主体外观的独特特征(即“个性化”),以及 (ii) 从零开始训练一个卷积网络,用于单视图3D人体姿态预测,而不依赖于3D姿态的真实标签。所提出的多视图姿态估计器在标准基准测试中取得了最先进的结果,证明了我们的方法在利用可用多视图信息方面的有效性。