
摘要
本文提出了一种新的端到端框架——ARCH(可动画化重建着装人体),用于从单目图像中精确重建可用于动画的3D着装人体模型。现有的3D人体数字化方法在处理姿态变化和恢复细节方面存在困难,且无法生成适合动画的模型。相比之下,ARCH是一种学习的姿态感知模型,可以从单一无约束的RGB图像中生成详细的3D全身体骨架人类虚拟形象。通过参数化3D人体估计器创建了语义空间和语义变形场,这些技术可以将2D/3D着装人体转换到规范空间中,从而减少训练数据中因姿态变化和遮挡引起的几何歧义。利用隐式函数表示法结合空间局部特征学习详细表面几何结构和外观。此外,我们提出了使用透明度感知的可微渲染对3D重建进行逐像素监督的方法。实验结果表明,ARCH提高了重建人体的保真度。在公共数据集上,与现有最先进方法相比,我们的标准指标下的重建误差降低了超过50%。我们还展示了大量尚未见诸文献的高质量、可动画化的重建虚拟形象示例。