Hochaufgelöste Deep Convolutional Generative Adversarial Networks

Die Konvergenz von Generativen Wettbewerbsnetzen (GANs) [Goodfellow et al. 2014] in Hochauflösungsszenarien unter der Einschränkung der GPU-Speicherkapazität wurde aufgrund der bekannten Instabilität der Konvergenzgeschwindigkeit mit Schwierigkeiten konfrontiert. Um die Netzwerkkonvergenz von DCGAN (Deep Convolutional Generative Adversarial Networks) [Radford et al. 2016] zu verbessern und ansprechende Hochauflösungsergebnisse zu erzielen, schlagen wir ein neues Schichtennetzwerk vor, das HDCGAN genannt wird und aktuelle Stand-of-the-Art-Techniken für diesen Zweck integriert. Zudem stellen wir eine Methode namens "Glasses" vor, die es ermöglicht, die endgültigen GAN-generierten Ergebnisse durch Vergrößerung der Eingabegröße mittels eines Teleskops ζ willkürlich zu verbessern. Ein neuartiger biasfreier Datensatz, Curtó & Zarza, wird vorgestellt, der menschliche Gesichter aus verschiedenen ethnischen Gruppen in einer Vielzahl von Beleuchtungsbedingungen und Bildauflösungen enthält. Curtó wird durch synthetische Bilder des HDCGAN ergänzt und stellt damit den ersten GAN-verstärkten Datensatz von Gesichtern dar. Wir führen umfangreiche Experimente auf CelebA [Liu et al. 2015], CelebA-hq [Karras et al. 2018] und Curtó durch. HDCGAN ist derzeit der Stand-of-the-Art in der Erzeugung synthetischer Bilder auf CelebA und erreicht einen MS-SSIM-Wert von 0.1978 sowie einen Fréchet-Inception-Distanzwert von 8.44.