摘要
近期提出的基于图像的虚拟试穿(Image-based Virtual Try-On, VTON)方法在应对多样的人体姿态与服装风格时仍面临诸多挑战。首先,服装形变网络常因人体表征缺乏服装感知能力(clothing-agnostic human representations)、输入图像在服装与人体匹配过程中存在不匹配,以及正则化变换参数设置不当,导致生成的形变服装出现严重扭曲与错位。其次,融合网络在生成组合掩码时,由于人体表征不准确以及训练损失函数设计不合理,难以有效保留原有衣物的完整结构。为此,本文提出CP-VTON+(Clothing Shape and Texture Preserving VTON),该方法通过有效保持服装的形状与纹理特性,显著优于当前最先进的方法,在定量与定性评估上均表现出卓越性能。