Réseaux de Génération Adversariaux Sensibles aux Pertes sur les Densités Lipschitziennes

Dans cet article, nous présentons la théorie et les algorithmes de régularisation lipschitzienne pour un nouveau type de réseau génératif adversarial sensible à la perte (LS-GAN). Plus précisément, il entraîne une fonction de perte pour distinguer entre les échantillons réels et faux par des marges spécifiées, tout en apprenant alternativement un générateur pour produire des échantillons réalistes en minimisant leurs pertes. Le LS-GAN régularise davantage sa fonction de perte avec une condition de régularité lipschitzienne sur la densité des données réelles, ce qui permet d'obtenir un modèle régularisé capable de généraliser mieux pour produire de nouvelles données à partir d'un nombre raisonnable d'exemples d'entraînement que le GAN classique. Nous présenterons également un LS-GAN généralisé (GLS-GAN) et montrerons qu'il englobe une grande famille de modèles GAN régularisés, incluant tant le LS-GAN que le GAN de Wasserstein comme cas particuliers. Comparé aux autres modèles GAN, nous mènerons des expériences pour démontrer que le LS-GAN et le GLS-GAN montrent une capacité compétitive à générer de nouvelles images en termes d'erreur de reconstruction minimale (MRE) évaluée sur un ensemble de test distinct. Nous étendrons en outre le LS-GAN à une forme conditionnelle pour les problèmes d'apprentissage supervisé et semi-supervisé, et démontrerons ses performances exceptionnelles dans les tâches de classification d'images.