Sur les régularisateurs de gradient pour les GANs MMD

Nous proposons une méthode fondée sur des principes pour la régularisation basée sur le gradient du critiqueur dans les modèles similaires aux GAN, formés par l'optimisation antagoniste du noyau d'une Divergence de Moyenne Maximale (Maximum Mean Discrepancy, MMD). Nous démontrons que le contrôle du gradient du critiqueur est essentiel pour disposer d'une fonction de perte raisonnable, et nous élaborons une méthode permettant d'imposer des contraintes de gradient exactes et analytiques sans coût supplémentaire par rapport aux techniques approximatives existantes basées sur des régularisateurs additifs. La nouvelle fonction de perte est prouvée continue, et les expériences montrent qu'elle stabilise et accélère l'entraînement, offrant des modèles de génération d'images qui surpassent les méthodes de pointe sur CelebA en résolution $160 \times 160$ et ImageNet inconditionnel en résolution $64 \times 64$.