Progressives Wachsen von GANs zur Verbesserung der Qualität, Stabilität und Variation

Wir beschreiben eine neue Trainingsmethode für Generative Adversarial Networks (GANs). Die Kernidee besteht darin, sowohl den Generator als auch den Diskriminator progressiv zu erweitern: ausgehend von einer niedrigen Auflösung fügen wir im Laufe des Trainings neue Schichten hinzu, die zunehmend feinere Details modellieren. Dies beschleunigt das Training und stabilisiert es erheblich, was uns ermöglicht, Bilder von bisher unerreichter Qualität zu erzeugen, beispielsweise CelebA-Bilder mit einer Auflösung von 1024^2. Darüber hinaus schlagen wir eine einfache Methode vor, um die Variation der generierten Bilder zu erhöhen, und erreichen einen Rekordinception-Score von 8.80 bei der unüberwachten Klassifikation von CIFAR10. Zudem beschreiben wir mehrere Implementierungsdetails, die wichtig sind, um ungesunde Wettbewerbe zwischen Generator und Diskriminator zu verhindern. Abschließend schlagen wir ein neues Evaluationsmaß für GAN-Ergebnisse vor, sowohl in Bezug auf Bildqualität als auch auf Variation. Als zusätzlicher Beitrag erstellen wir eine höhere Qualitätsversion des CelebA-Datensatzes.