Entraînement des réseaux antagonistes génératifs avec des données limitées

L'entraînement des réseaux génératifs adverses (GAN) avec une quantité insuffisante de données conduit généralement à un surapprentissage du discriminateur, ce qui entraîne une instabilité de l'entraînement. Nous proposons un mécanisme d'augmentation adaptative du discriminateur qui stabilise significativement l'entraînement dans les régimes à faible quantité de données. Cette approche ne nécessite aucune modification des fonctions de perte ni des architectures de réseau, et est applicable aussi bien lors de l'entraînement à partir de zéro que lors du finetuning d'un GAN existant sur un autre jeu de données. Nous démontrons, sur plusieurs jeux de données, qu'il est désormais possible d'obtenir de bons résultats avec seulement quelques milliers d'images d'entraînement, souvent en atteignant des performances comparables à celles de StyleGAN2 avec un ordre de grandeur moins d'images. Nous pensons que cela ouvrira de nouveaux domaines d'application aux GAN. Nous constatons également que le jeu de données largement utilisé CIFAR-10 constitue en réalité un benchmark à faible quantité de données, et améliorons le score FID record de 5,59 à 2,42.