15 天前

基于密集对应关系的3D人体网格回归

Wang Zeng, Wanli Ouyang, Ping Luo, Wentao Liu, Xiaogang Wang
基于密集对应关系的3D人体网格回归
摘要

从单张二维图像估计人体三维网格(3D mesh)是一项具有广泛应用的重要任务,涵盖增强现实(Augmented Reality)和人机交互(Human-Robot Interaction)等多个领域。然而,以往的方法通常依赖卷积神经网络(CNN)提取图像的全局特征来重建三维网格,缺乏网格表面与图像像素之间的密集对应关系,导致重建结果不够理想。本文提出了一种无需预训练模型的三维人体网格估计框架,命名为DecoMR。该方法在UV空间(即用于三维网格纹理映射的二维空间)中显式建立网格与局部图像特征之间的密集对应关系。DecoMR首先预测像素到表面的密集对应关系图(即IUV图像),并据此将图像空间中的局部特征映射至UV空间。随后,在UV空间中对这些转移后的局部特征进行处理,以回归出与特征对齐良好的位置图。最终,通过一个预定义的映射函数,从回归得到的位置图中重建出三维人体网格。此外,我们观察到现有的不连续UV映射不利于网络的学习。为此,本文提出一种新型的连续UV映射方法,能够较好地保留原始网格表面上的邻近关系。实验结果表明,所提出的局部特征对齐机制与连续UV映射在多个公开基准数据集上均显著优于现有的基于三维网格的方法。代码将开源,地址为:https://github.com/zengwang430521/DecoMR。