
摘要
计算机图形学领域近年来涌现出大量以数据为中心的方法,用于实现逼真且可控的内容生成。其中,StyleGAN 在图像质量与可控性方面为生成建模设立了新标准。然而,当面对 ImageNet 等大规模非结构化数据集时,StyleGAN 的性能显著下降。这一现象被认为与其设计初衷——强调可控性——有关,因此先前研究普遍认为其架构限制了在多样化数据集上的适用性。与此相反,我们发现其性能瓶颈主要源于当前的训练策略。受近期提出的“投影生成对抗网络”(Projected GAN)范式启发,我们利用强大的神经网络先验知识与渐进式生长训练策略,成功在 ImageNet 数据集上训练了最新的 StyleGAN3 生成器。由此得到的最终模型——StyleGAN-XL,在大规模图像合成任务上达到了新的最先进水平,也是首个在如此大规模数据集上实现 $1024^2$ 分辨率图像生成的模型。我们进一步验证了该模型不仅能够对图像进行高效重建与编辑,还能超越人脸或特定物体类别等狭窄领域,实现更广泛场景下的图像逆向与编辑。