
摘要
条件生成对抗网络(Conditional Generative Adversarial Networks, cGAN)通过将类别信息引入生成对抗网络,能够生成逼真的图像。尽管目前最流行的cGAN之一是采用Softmax交叉熵损失的辅助分类器生成对抗网络(Auxiliary Classifier GAN, ACGAN),但众所周知,随着数据集中类别数量的增加,ACGAN的训练变得极具挑战性。此外,ACGAN倾向于生成易于分类且缺乏多样性的样本。本文提出了两种针对ACGAN的改进方法。首先,我们发现分类器中梯度爆炸会导致训练初期出现不理想的坍缩现象,而将输入向量投影到单位超球面上可有效缓解该问题。其次,我们提出了一种数据到数据的交叉熵损失(Data-to-Data Cross-Entropy Loss, D2D-CE),以充分利用类别标注数据集中的关系信息。基于上述改进,我们提出了“重启型辅助分类器生成对抗网络”(Rebooted Auxiliary Classifier Generative Adversarial Network, ReACGAN)。实验结果表明,ReACGAN在CIFAR10、Tiny-ImageNet、CUB200以及ImageNet等多个数据集上均达到了当前最先进的图像生成性能。我们还验证了ReACGAN能够受益于可微分数据增强技术,并且D2D-CE可与StyleGAN2架构良好兼容。本文所涉及的模型权重及包含代表性cGAN实现与全部实验的软件包,已公开于GitHub:https://github.com/POSTECH-CVLab/PyTorch-StudioGAN。