Vorgeschriebene generative adversarische Netzwerke

Generative adversarial networks (GANs) stellen einen leistungsfähigen Ansatz für das unüberwachte Lernen dar und haben in der Bildverarbeitung Zustand-des-Kunst-Leistungen erzielt. Dennoch sind GANs in zweifacher Hinsicht eingeschränkt: Sie neigen oft dazu, Verteilungen mit geringem Träger zu lernen – ein Phänomen, das als Mode Collapse bekannt ist – und sie garantieren nicht die Existenz einer Wahrscheinlichkeitsdichte, was die Bewertung der Generalisierung mittels prädiktiver Log-Wahrscheinlichkeit unmöglich macht. In diesem Paper entwickeln wir die prescribed GAN (PresGAN), um diese Schwächen zu beheben. PresGANs fügen Rauschen zum Ausgang eines Dichtenetzes hinzu und optimieren eine entropie-regularisierte adversarielle Verlustfunktion. Das hinzugefügte Rauschen ermöglicht tractbare Approximationen der prädiktiven Log-Wahrscheinlichkeit und stabilisiert den Trainingsprozess. Der Entropie-Regularisierer fördert die Fähigkeit von PresGANs, alle Modi der Datenverteilung zu erfassen. Die Anpassung von PresGANs erfordert die Berechnung intransitiver Gradienten des Entropie-Regularisierungsterms; PresGANs umgehen diese Intransitivität durch den Einsatz unverzerrter stochastischer Schätzungen. Wir evaluieren PresGANs an mehreren Datensätzen und stellen fest, dass sie den Mode Collapse verringern und Proben mit hoher perceptueller Qualität erzeugen. Zudem zeigen wir, dass PresGANs die Leistungsunterschiede in Bezug auf die prädiktive Log-Wahrscheinlichkeit zwischen traditionellen GANs und Variational Autoencoders (VAEs) verringern.