Klassen-Spaltende Generative Adversarische Netze

Generative Adversarial Networks (GANs) erzeugen systematisch bessere Qualitätsproben, wenn Klassenlabelinformationen bereitgestellt werden, d.h. im bedingten GAN-Setup. Dies gilt auch für die kürzlich vorgeschlagene Wasserstein-GAN-Formulierung, die das adversäre Training stabilisiert und es ermöglicht, hochdimensionale Netzwerkarchitekturen wie ResNet zu berücksichtigen. In dieser Arbeit zeigen wir, wie man bedingte GANs durch Erweiterung der verfügbaren Klassenlabels verbessern kann. Die neuen Klassen stammen aus dem Clustering im von demselben GAN-Modell gelernten Repräsentationsraum. Die vorgeschlagene Strategie ist auch anwendbar, wenn keine Klasseninformationen vorliegen, d.h. im unüberwachten Setup. Unsere generierten Proben erreichen den aktuellen Stand der Technik in Bezug auf Inception-Scores für die CIFAR-10 und STL-10 Datensätze sowohl im überwachten als auch im unüberwachten Setup.