Le GAN est mort ; vive le GAN ! Une base moderne pour les GAN

Il existe une affirmation largement répandue selon laquelle les GAN sont difficiles à entraîner, et les architectures GAN proposées dans la littérature regorgent de techniques empiriques spécifiques. Nous fournissons des preuves contraires à cette affirmation et proposons une base moderne pour les GAN selon une approche plus rigoureuse. Premièrement, nous dérivons une perte régularisée pour GAN relativiste bien comportée, qui résout les problèmes de perte de modes et de non-convergence, auparavant traités à l’aide d’un ensemble de trucs empiriques. Nous analysons mathématiquement cette perte et démontrons qu’elle garantit une convergence locale, contrairement à la plupart des pertes relativistes existantes. Deuxièmement, cette nouvelle perte nous permet d’éliminer toutes les techniques empiriques et de remplacer les architectures anciennes couramment utilisées dans les GAN par des architectures modernes. En prenant StyleGAN2 comme exemple, nous présentons une stratégie de simplification et de modernisation qui conduit à une nouvelle base minimalistes — R3GAN. Malgré sa simplicité, notre approche dépasse StyleGAN2 sur les jeux de données FFHQ, ImageNet, CIFAR et Stacked MNIST, et se compare favorablement aux meilleurs modèles GAN et aux modèles de diffusion de pointe.