HyperAIHyperAI
il y a 2 mois

Dist-GAN : Une Amélioration de GAN Utilisant des Contraintes de Distance

Ngoc-Trung Tran; Tuan-Anh Bui; Ngai-Man Cheung
Dist-GAN : Une Amélioration de GAN Utilisant des Contraintes de Distance
Résumé

Nous présentons des algorithmes d'entraînement efficaces pour les Réseaux de Génération Adversariaux (GAN) afin d'atténuer le collapse de modes et l'annulation du gradient. Dans notre système, nous restreignons le générateur par un Autoencodeur (AE). Nous proposons une formulation qui considère les échantillons reconstruits par l'AE comme des échantillons « réels » pour le discriminateur. Cela couple la convergence de l'AE avec celle du discriminateur, ralentissant efficacement la convergence du discriminateur et réduisant l'annulation du gradient. De manière importante, nous proposons deux nouvelles contraintes de distance pour améliorer le générateur. Premièrement, nous introduisons une contrainte de distance entre données latentes et données pour imposer la compatibilité entre les distances des échantillons latents et celles des échantillons de données correspondants. Cette contrainte est utilisée pour prévenir explicitement le collapse de modes du générateur. Deuxièmement, nous proposons une contrainte de distance basée sur le score du discriminateur pour aligner la distribution des échantillons générés avec celle des échantillons réels à travers le score du discriminateur. Cette contrainte guide le générateur à synthétiser des échantillons ressemblant aux vrais. Notre GAN proposé, utilisant ces contraintes de distance, appelé Dist-GAN, peut obtenir de meilleurs résultats que les méthodes d'état de l'art sur plusieurs ensembles de données de référence : ensembles de données synthétiques, MNIST, MNIST-1K, CelebA, CIFAR-10 et STL-10. Notre code est publié ici (https://github.com/tntrung/gan) pour la recherche.

Dist-GAN : Une Amélioration de GAN Utilisant des Contraintes de Distance | Articles de recherche récents | HyperAI