Croissance progressive des GANs pour améliorer la qualité, la stabilité et la variabilité

Nous décrivons une nouvelle méthodologie d'entraînement pour les réseaux de neurones génératifs adverses (generative adversarial networks). L'idée clé est de faire croître progressivement à la fois le générateur et le discriminateur : en partant d'une résolution basse, nous ajoutons de nouvelles couches qui modélisent des détails de plus en plus fins au fur et à mesure que l'entraînement progresse. Cette approche accélère non seulement l'entraînement, mais le stabilise également considérablement, ce qui nous permet de produire des images d'une qualité sans précédent, par exemple des images CelebA à 1024². Nous proposons également une méthode simple pour augmenter la variabilité des images générées et obtenir un score d'inception record de 8,80 dans le cadre non supervisé de CIFAR10. De plus, nous détaillons plusieurs aspects pratiques importants pour décourager une compétition malsaine entre le générateur et le discriminateur. Enfin, nous suggérons un nouveau métrique pour évaluer les résultats des GAN, tant en termes de qualité d'image que de variabilité. Comme contribution supplémentaire, nous avons construit une version de meilleure qualité du jeu de données CelebA.