HyperAIHyperAI
vor 17 Tagen

Der GAN ist tot; lang lebe der GAN! Eine moderne GAN-Benchmark

Yiwen Huang, Aaron Gokaslan, Volodymyr Kuleshov, James Tompkin
Der GAN ist tot; lang lebe der GAN! Eine moderne GAN-Benchmark
Abstract

Es besteht ein weit verbreiteter Anspruch, dass GANs schwer zu trainieren seien und dass GAN-Architekturen in der Literatur mit empirischen Tricks übersät seien. Wir liefern Gegenbeweise für diese Behauptung und etablieren eine moderne GAN-Baseline auf einer konsistenteren, prinzipielleren Grundlage. Zunächst leiten wir eine gutartige, regularisierte relativistische GAN-Verlustfunktion ab, die Probleme wie Modenverlust und Nicht-Konvergenz anspricht, die bisher durch eine Sammlung von ad-hoc-Tricks behoben wurden. Wir analysieren unseren Verlust mathematisch und beweisen, dass er lokale Konvergenzgarantien besitzt – im Gegensatz zu den meisten bisher vorgeschlagenen relativistischen Verlustfunktionen. Zweitens ermöglicht unsere neue Verlustfunktion, sämtliche ad-hoc-Tricks zu verwerfen und veraltete Grundarchitekturen, die in üblichen GANs verwendet werden, durch moderne Architekturen zu ersetzen. Anhand von StyleGAN2 demonstrieren wir einen Weg der Vereinfachung und Modernisierung, der zu einer neuen minimalistischen Baseline – R3GAN – führt. Trotz seiner Einfachheit übertrifft unser Ansatz StyleGAN2 auf den Datensätzen FFHQ, ImageNet, CIFAR und Stacked MNIST und zeigt sich wettbewerbsfähig gegenüber aktuellen State-of-the-Art-GANs und Diffusionsmodellen.

Der GAN ist tot; lang lebe der GAN! Eine moderne GAN-Benchmark | Neueste Forschungsarbeiten | HyperAI