HyperAIHyperAI
vor 4 Monaten

Über Gradientenregularisatoren für MMD-GANs

Michael Arbel; Danica J. Sutherland; Mikołaj Bińkowski; Arthur Gretton
Über Gradientenregularisatoren für MMD-GANs
Abstract

Wir schlagen eine präzise Methode zur gradientenbasierten Regularisierung des Kritikers in GAN-ähnlichen Modellen vor, die durch adversariales Optimieren des Kerns einer Maximum Mean Discrepancy (MMD) trainiert werden. Wir zeigen, dass die Kontrolle des Gradienten des Kritikers entscheidend für eine sinnvolle Verlustfunktion ist, und entwickeln eine Methode, um exakte, analytische Gradientenbeschränkungen ohne zusätzlichen Aufwand im Vergleich zu bestehenden approximativen Techniken auf Basis additiver Regularisierer durchzusetzen. Die neue Verlustfunktion ist beweisbar stetig, und Experimente belegen, dass sie das Training stabilisiert und beschleunigt, wodurch Bildgenerierungsmodelle entstehen, die bei $160 \times 160$ CelebA und $64 \times 64$ unbedingtem ImageNet den Stand der Technik übertreffen.