
摘要
我们提出了一种基于深度学习的自动获取绑定服装姿态空间变形(Pose Space Deformation, PSD)基函数的方法。传统方法依赖于基于物理的模拟(Physically Based Simulation, PBS)来驱动服装动画,这类方法属于通用性解决方案,在空间与时间离散化足够精细的前提下,能够实现高度逼真的动画效果。然而,其计算成本高昂,且任何场景的修改均需重新进行模拟。线性混合皮肤(Linear Blend Skinning, LBS)结合PSD提供了一种轻量级替代方案,但其学习有效的PSD仍需海量数据支持。本文提出将深度学习建模为隐式PBS,以无监督方式在受限场景——即穿装人体——中学习真实感的服装姿态空间变形。此外,我们证明该模型的训练时间可与少数序列的PBS模拟相当。据我们所知,这是首个提出用于服装模拟的神经仿真器(neural simulator)的工作。尽管基于深度学习的方法在该领域逐渐成为趋势,但现有模型普遍对数据量要求极高。此外,许多研究者通过设计复杂模型结构,试图从PBS数据中更有效地学习褶皱特征。然而,监督学习往往导致物理上不一致的预测结果,必须依赖碰撞求解才能实际使用。同时,对PBS数据的强依赖限制了这些方法的可扩展性,而其模型架构也制约了其适用性与兼容性。本文提出的无监督PSD学习方法,针对LBS模型(3D动画标准)克服了上述两大局限。实验结果表明,所生成的服装动画具备良好的布料一致性,且能自然呈现依赖姿态的褶皱与折痕。本方法具有极高的计算效率,可处理多层布料,支持无监督的服装尺寸调整,并可轻松应用于任意自定义3D角色。