HyperAIHyperAI

Command Palette

Search for a command to run...

Über Gradientenregularisatoren für MMD-GANs

Michael Arbel Danica J. Sutherland Mikołaj Bińkowski Arthur Gretton

Zusammenfassung

Wir schlagen eine präzise Methode zur gradientenbasierten Regularisierung des Kritikers in GAN-ähnlichen Modellen vor, die durch adversariales Optimieren des Kerns einer Maximum Mean Discrepancy (MMD) trainiert werden. Wir zeigen, dass die Kontrolle des Gradienten des Kritikers entscheidend für eine sinnvolle Verlustfunktion ist, und entwickeln eine Methode, um exakte, analytische Gradientenbeschränkungen ohne zusätzlichen Aufwand im Vergleich zu bestehenden approximativen Techniken auf Basis additiver Regularisierer durchzusetzen. Die neue Verlustfunktion ist beweisbar stetig, und Experimente belegen, dass sie das Training stabilisiert und beschleunigt, wodurch Bildgenerierungsmodelle entstehen, die bei 160×160160 \times 160160×160 CelebA und 64×6464 \times 6464×64 unbedingtem ImageNet den Stand der Technik übertreffen.


KI mit KI entwickeln

Von der Idee bis zum Launch – beschleunigen Sie Ihre KI-Entwicklung mit kostenlosem KI-Co-Coding, sofort einsatzbereiter Umgebung und bestem GPU-Preis.

KI-gestütztes kollaboratives Programmieren
Sofort einsatzbereite GPUs
Die besten Preise

HyperAI Newsletters

Abonnieren Sie unsere neuesten Updates
Wir werden die neuesten Updates der Woche in Ihren Posteingang liefern um neun Uhr jeden Montagmorgen
Unterstützt von MailChimp