Verbesserung der GAN-Trainingsdurchführung mittels Wahrscheinlichkeitsverhältnis-Clipping und Stichprobengewichtung

Trotz Erfolgen bei einer Vielzahl von Aufgaben im Bereich der Bildverarbeitung leiden generative adversarische Netzwerke (GANs) häufig aufgrund instabiler Trainingsprozesse unter schlechterer Leistung, insbesondere bei der Textgenerierung. Um dieses Problem zu lösen, schlagen wir einen neuen variationalen GAN-Trainingsrahmen vor, der eine überlegene Trainingsstabilität aufweist. Unser Ansatz wird durch eine Verbindung zwischen GANs und Verstärkungslernen aus einer variationalen Perspektive inspiriert. Diese Verbindung führt zu (1) einer Clipping-Regelung des Wahrscheinlichkeitsverhältnisses, die die Generator-Training stabilisiert und übermäßig große Updates verhindert, sowie zu (2) einem Mechanismus zur Neugewichtung von Samples, der das Discriminator-Training verbessert, indem schlecht qualifizierte gefälschte Samples abgeschwächt werden. Darüber hinaus kann unser variationaler GAN-Rahmen beweisbar das Trainingsproblem vieler GANs überwinden, bei dem ein optimaler Discriminator keinerlei informativen Gradienten für das Training des Generators liefert. Durch die Integration dieses Trainingsansatzes in verschiedene state-of-the-art GAN-Architekturen erreichen wir signifikant verbesserte Leistungen bei einer Vielzahl von Aufgaben, darunter Textgenerierung, Text-Stiltransfer und Bildgenerierung.