
摘要
以往大多数基于图像的三维人体姿态与网格重建方法均直接从输入图像中回归人体网格模型的参数。然而,这种直接从图像像素映射到参数的方法本质上是一个高度非线性的过程,因为它破坏了输入图像中像素之间的空间关联性。此外,该方法无法建模预测的不确定性,这会增加训练的难度。为解决上述问题,我们提出了一种图像到lixel(线+像素)预测网络——I2L-MeshNet。该方法不再直接回归参数,而是针对每个网格顶点的坐标,在一维热图上预测对应lixel的似然概率。所提出的基于lixel的一维热图能够有效保留输入图像中的空间结构关系,并同时建模预测的不确定性。我们通过实验验证了图像到lixel预测的优势,并证明所提出的I2L-MeshNet在性能上优于现有方法。代码已公开,地址为:https://github.com/mks0601/I2L-MeshNet_RELEASE。