HyperAIHyperAI

Command Palette

Search for a command to run...

Progressives Wachsen von GANs zur Verbesserung der Qualität, Stabilität und Variation

Tero Karras NVIDIA Timo Aila NVIDIA Samuli Laine NVIDIA Jaakko Lehtinen NVIDIA and Aalto University tkarras,taila,slaine,[email protected]

Zusammenfassung

Wir beschreiben eine neue Trainingsmethode für Generative Adversarial Networks (GANs). Die Kernidee besteht darin, sowohl den Generator als auch den Diskriminator progressiv zu erweitern: ausgehend von einer niedrigen Auflösung fügen wir im Laufe des Trainings neue Schichten hinzu, die zunehmend feinere Details modellieren. Dies beschleunigt das Training und stabilisiert es erheblich, was uns ermöglicht, Bilder von bisher unerreichter Qualität zu erzeugen, beispielsweise CelebA-Bilder mit einer Auflösung von 1024^2. Darüber hinaus schlagen wir eine einfache Methode vor, um die Variation der generierten Bilder zu erhöhen, und erreichen einen Rekordinception-Score von 8.80 bei der unüberwachten Klassifikation von CIFAR10. Zudem beschreiben wir mehrere Implementierungsdetails, die wichtig sind, um ungesunde Wettbewerbe zwischen Generator und Diskriminator zu verhindern. Abschließend schlagen wir ein neues Evaluationsmaß für GAN-Ergebnisse vor, sowohl in Bezug auf Bildqualität als auch auf Variation. Als zusätzlicher Beitrag erstellen wir eine höhere Qualitätsversion des CelebA-Datensatzes.


KI mit KI entwickeln

Von der Idee bis zum Launch – beschleunigen Sie Ihre KI-Entwicklung mit kostenlosem KI-Co-Coding, sofort einsatzbereiter Umgebung und bestem GPU-Preis.

KI-gestütztes kollaboratives Programmieren
Sofort einsatzbereite GPUs
Die besten Preise

HyperAI Newsletters

Abonnieren Sie unsere neuesten Updates
Wir werden die neuesten Updates der Woche in Ihren Posteingang liefern um neun Uhr jeden Montagmorgen
Unterstützt von MailChimp