HyperAIHyperAI

Command Palette

Search for a command to run...

Sur les régularisateurs de gradient pour les GANs MMD

Michael Arbel Danica J. Sutherland Mikołaj Bińkowski Arthur Gretton

Résumé

Nous proposons une méthode fondée sur des principes pour la régularisation basée sur le gradient du critiqueur dans les modèles similaires aux GAN, formés par l'optimisation antagoniste du noyau d'une Divergence de Moyenne Maximale (Maximum Mean Discrepancy, MMD). Nous démontrons que le contrôle du gradient du critiqueur est essentiel pour disposer d'une fonction de perte raisonnable, et nous élaborons une méthode permettant d'imposer des contraintes de gradient exactes et analytiques sans coût supplémentaire par rapport aux techniques approximatives existantes basées sur des régularisateurs additifs. La nouvelle fonction de perte est prouvée continue, et les expériences montrent qu'elle stabilise et accélère l'entraînement, offrant des modèles de génération d'images qui surpassent les méthodes de pointe sur CelebA en résolution 160×160160 \times 160160×160 et ImageNet inconditionnel en résolution 64×6464 \times 6464×64.


Créer de l'IA avec l'IA

De l'idée au lancement — accélérez votre développement IA avec le co-codage IA gratuit, un environnement prêt à l'emploi et le meilleur prix pour les GPU.

Codage assisté par IA
GPU prêts à l’emploi
Tarifs les plus avantageux

HyperAI Newsletters

Abonnez-vous à nos dernières mises à jour
Nous vous enverrons les dernières mises à jour de la semaine dans votre boîte de réception à neuf heures chaque lundi matin
Propulsé par MailChimp
Sur les régularisateurs de gradient pour les GANs MMD | Articles | HyperAI