ProbGAN: Ein Schritt hin zu probabilistischen GANs mit theoretischen Garantien

Probabilistische Modellierung ist ein begründeter Rahmen zur Durchführung von Modellaggregation, der als zentrale Methode zur Bekämpfung der Moden-Kollaps-Problematik in Generativen adversarialen Netzwerken (GANs) etabliert ist. In diesem Artikel stellen wir einen neuartigen probabilistischen Ansatz für GANs, namens ProbGAN, vor, der iterativ eine Verteilung über Generatoren mit einer sorgfältig entworfenen Prior lernt. Der Lernprozess wird effizient durch einen maßgeschneiderten stochastischen Gradienten-Hamiltonschen Monte-Carlo-Algorithmus ausgelöst, der eine neuartige Gradientenapproximation verwendet, um bayessche Inferenz durchzuführen. Unsere theoretische Analyse zeigt weiterhin, dass unser Ansatz der erste probabilistische Rahmen ist, der ein Gleichgewicht erzeugt, bei dem die Verteilung der Generatoren der Datenverteilung treu entspricht. Empirische Ergebnisse an synthetischen hochdimensionalen multimodalen Datensätzen sowie an Bild-Datenbanken (CIFAR-10, STL-10 und ImageNet) belegen die Überlegenheit unserer Methode gegenüber sowohl state-of-the-art-Verfahren mit mehreren Generatoren als auch anderen probabilistischen Ansätzen für GANs.