Régularisation des réseaux adverses génératifs sous données limitées

Les dernières années ont vu un progrès rapide des réseaux antagonistes génératifs (GANs). Toutefois, le succès des modèles GAN repose fortement sur une grande quantité de données d'entraînement. Ce travail propose une méthode de régularisation pour entraîner des modèles GAN robustes avec des données limitées. Nous montrons théoriquement un lien entre la perte régularisée et une divergence f appelée divergence de LeCam, que nous identifions comme étant plus robuste en présence de données d'entraînement restreintes. Des expériences étendues sur plusieurs jeux de données standard démontrent que la méthode de régularisation proposée : 1) améliore la performance de généralisation et stabilise la dynamique d'apprentissage des modèles GAN sous des conditions de données limitées, et 2) s'accommode efficacement des méthodes récentes d'augmentation de données. Ces propriétés permettent d'entraîner des modèles GAN atteignant des performances de pointe, même lorsque seules des quantités limitées de données du benchmark ImageNet sont disponibles.