HyperAIHyperAI
il y a 2 mois

MSG-GAN : Gradients Multi-Échelles pour les Réseaux de Neurones Générateurs Adverses

Animesh Karnewar; Oliver Wang
MSG-GAN : Gradients Multi-Échelles pour les Réseaux de Neurones Générateurs Adverses
Résumé

Bien que les Réseaux de Neurones Antagonistes Génératifs (GANs) aient connu des succès considérables dans les tâches de synthèse d'images, ils sont notoirement difficiles à adapter à différents ensembles de données, en partie en raison de l'instabilité lors de la formation et de la sensibilité aux hyperparamètres. Une raison couramment admise pour cette instabilité est que les gradients passant du discriminateur au générateur deviennent non informatifs lorsque le chevauchement entre les supports des distributions réelles et fausses n'est pas suffisant. Dans ce travail, nous proposons le Multi-Scale Gradient Generative Adversarial Network (MSG-GAN), une technique simple mais efficace pour résoudre ce problème en permettant le flux de gradients du discriminateur au générateur à plusieurs échelles. Cette technique offre une approche stable pour la synthèse d'images haute résolution et constitue une alternative à la technique progressive couramment utilisée. Nous montrons que MSG-GAN converge de manière stable sur divers ensembles de données d'images de tailles, résolutions et domaines différents, ainsi que sur différents types de fonctions de perte et d'architectures, tout cela avec le même ensemble d'hyperparamètres fixes. Lorsqu'il est comparé aux GANs les plus avancés, notre approche égale ou dépasse les performances dans la plupart des cas que nous avons testés.

MSG-GAN : Gradients Multi-Échelles pour les Réseaux de Neurones Générateurs Adverses | Articles de recherche récents | HyperAI