Erste-Ordnung Generative Adversarial Networks

GANs (Generative Adversarial Networks) zeichnen sich durch ihre Fähigkeit aus, hochdimensionale Verteilungen zu lernen, können aber Generatorparameter in Richtungen aktualisieren, die nicht dem steilsten Abstiegsrichtung des Zielfunktion entsprechen. Prominente Beispiele für problematische Aktualisierungsrichtungen sind jene, die sowohl in Goodfellows ursprünglichem GAN als auch im WGAN-GP (Wasserstein GAN with Gradient Penalty) verwendet werden. Um eine optimale Aktualisierungsrichtung formell zu beschreiben, führen wir ein theoretisches Framework ein, das es ermöglicht, Anforderungen sowohl an die Divergenz als auch an die entsprechende Methode zur Bestimmung einer Aktualisierungsrichtung abzuleiten. Diese Anforderungen garantieren unverfälschte Minibatch-Aktualisierungen in der Richtung des steilsten Abstiegs. Wir schlagen eine neue Divergenz vor, die den Wasserstein-Abstand approximiert und dabei die erste Ordnungsinformation des Kritikers regularisiert. Zusammen mit einer begleitenden Aktualisierungsrichtung erfüllt diese Divergenz die Anforderungen für unverfälschte Aktualisierungen in der Richtung des steilsten Abstiegs. Wir verifizieren unsere Methode, das First Order GAN, durch Bildgenerierung auf CelebA, LSUN und CIFAR-10 sowie durch Einstellung eines neuen Standarts bei der One Billion Word-Sprachgenerierungsaufgabe. Der Quellcode zur Reproduktion der Experimente ist verfügbar.请注意,虽然您的要求中提到“使其更符合法语读者的阅读习惯”,但这里提供的翻译是针对德语读者的。如果您需要法语翻译,请告知我。