HyperAIHyperAI

Command Palette

Search for a command to run...

Amélioration de l'entraînement des GANs de Wasserstein

Ishaan Gulrajani Faruk Ahmed Martin Arjovsky Vincent Dumoulin Aaron Courville

Résumé

Les réseaux de neurones adverses génératifs (GANs) sont des modèles génératifs puissants, mais ils souffrent d'une instabilité lors de l'entraînement. Le Wasserstein GAN (WGAN) récemment proposé fait des progrès vers une entraînement stable des GANs, mais peut parfois encore générer des échantillons de faible qualité ou ne pas converger. Nous constatons que ces problèmes sont souvent dus à l'utilisation du.clipage des poids dans le WGAN pour imposer une contrainte lipschitzienne au critiqueur, ce qui peut conduire à un comportement indésirable. Nous proposons une alternative au clipage des poids : pénaliser la norme du gradient du critiqueur par rapport à son entrée. Notre méthode proposée se montre supérieure au WGAN standard et permet une entraînement stable d'une large variété d'architectures GAN avec presque aucun réglage d'hyperparamètres, y compris les ResNets à 101 couches et les modèles de langage sur des données discrètes. Nous obtenons également des générations de haute qualité sur CIFAR-10 et LSUN bedrooms.


Créer de l'IA avec l'IA

De l'idée au lancement — accélérez votre développement IA avec le co-codage IA gratuit, un environnement prêt à l'emploi et le meilleur prix pour les GPU.

Codage assisté par IA
GPU prêts à l’emploi
Tarifs les plus avantageux

HyperAI Newsletters

Abonnez-vous à nos dernières mises à jour
Nous vous enverrons les dernières mises à jour de la semaine dans votre boîte de réception à neuf heures chaque lundi matin
Propulsé par MailChimp