7 天前

基于属性解耦GAN的可控人物图像合成

Yifang Men, Yiming Mao, Yuning Jiang, Wei-Ying Ma, Zhouhui Lian
基于属性解耦GAN的可控人物图像合成
摘要

本文提出了一种名为属性分解生成对抗网络(Attribute-Decomposed GAN)的新颖生成模型,用于实现可控的人物图像合成。该模型能够根据多种源输入中提供的期望人体属性(如姿态、头部、上衣及裤子等),生成高度逼真的人物图像。其核心思想是将人体属性以独立编码的形式嵌入潜在空间,从而通过显式风格表示中的混合与插值操作,实现对属性的灵活且连续的控制。具体而言,本文设计了一种新型网络架构,包含两条编码路径,并通过风格块连接实现特征交互,将原始复杂的映射任务分解为多个更易处理的子任务。在源路径中,进一步利用现成的人体解析器提取各部件的布局信息,并将其输入共享的全局纹理编码器,以生成分解后的潜在编码。该策略不仅提升了生成图像的真实感,还实现了对未标注属性的自动分离。实验结果表明,所提出的方法在姿态迁移任务上显著优于当前最先进的技术,并在全新的部件属性迁移任务中展现出优异的性能与有效性。

基于属性解耦GAN的可控人物图像合成 | 最新论文 | HyperAI超神经