Verlustsensible generative adversarische Netzwerke auf Lipschitz-Dichten

In dieser Arbeit stellen wir die Theorie und Algorithmen der Lipschitz-Regularisierung für ein neuartiges Loss-Sensitive Generative Adversarial Network (LS-GAN) vor. Insbesondere wird eine Verlustfunktion trainiert, um echte und gefälschte Stichproben durch vorgegebene Margen zu unterscheiden, während gleichzeitig ein Generator abwechselnd trainiert wird, um realistische Stichproben durch Minimierung ihrer Verluste zu erzeugen. Das LS-GAN regularisiert seine Verlustfunktion zusätzlich mit einer Lipschitz-Regularity-Bedingung auf der Dichte der echten Daten, was zu einem regularisierten Modell führt, das sich besser verallgemeinern kann, um neue Daten aus einer angemessenen Anzahl von Trainingsbeispielen zu erzeugen als das klassische GAN. Wir werden ferner ein Generalized LS-GAN (GLS-GAN) präsentieren und zeigen, dass es eine große Familie von regularisierten GAN-Modellen umfasst, darunter sowohl das LS-GAN als auch das Wasserstein GAN als Spezialfälle. Im Vergleich zu anderen GAN-Modellen werden wir Experimente durchführen, um die wettbewerbsfähige Leistung des LS-GAN und des GLS-GAN bei der Erzeugung neuer Bilder hinsichtlich des Minimalen Rekonstruktionsfehlers (MRE), der auf einem separaten Testset bewertet wird, zu demonstrieren. Wir erweitern das LS-GAN zudem auf eine bedingte Form für überwachte und schwach überwachte Lernprobleme und zeigen dessen herausragende Leistung bei Bildklassifizierungsaufgaben.