
摘要
本文研究了一项场景感知的3D人体运动预测任务,即在给定3D场景和人体历史运动序列的基础上,预测未来的人体姿态。该任务的关键挑战在于确保人体运动与场景之间的一致性,充分考虑人体与场景之间的交互作用。以往的方法通常仅隐式建模此类交互,因而容易产生诸如“幽灵运动”(ghost motion)等伪影,其根本原因在于缺乏对人体局部姿态与全局运动之间显式约束。与此不同,本文提出显式建模人体与场景之间的接触关系。为此,我们引入基于距离的接触图(distance-based contact maps),以在每一时间步精确捕捉人体各关节与3D场景点之间的接触状态。随后,我们设计了一个两阶段的预测框架:第一阶段基于历史接触图和场景点云预测未来时刻的接触图;第二阶段则在预测接触图的约束下,生成未来的人体姿态。在训练过程中,我们通过利用接触图与未来姿态构建的先验信息,显式地强化全局运动与局部姿态之间的一致性。实验结果表明,所提出的方法在合成数据集和真实数据集上均显著优于当前最先进的运动预测与人体姿态生成方法。相关代码已开源,地址为:https://github.com/wei-mao-2019/ContAwareMotionPred。