HyperAIHyperAI
vor 17 Tagen

Regularisierung von Generative Adversarial Networks unter begrenzten Daten

Hung-Yu Tseng, Lu Jiang, Ce Liu, Ming-Hsuan Yang, Weilong Yang
Regularisierung von Generative Adversarial Networks unter begrenzten Daten
Abstract

In den letzten Jahren hat man einen raschen Fortschritt bei generativen adversarialen Netzwerken (GANs) beobachtet. Der Erfolg dieser Modelle beruht jedoch auf einer großen Menge an Trainingsdaten. In dieser Arbeit wird ein Regularisierungsansatz vorgeschlagen, um robuste GAN-Modelle unter Nutzung begrenzter Daten zu trainieren. Theoretisch zeigen wir eine Verbindung zwischen der regularisierten Verlustfunktion und einer f-Divergenz, der sogenannten LeCam-Divergenz, die wir als robuster gegenüber begrenzten Trainingsdaten identifizieren. Umfangreiche Experimente an mehreren Benchmark-Datensätzen belegen, dass das vorgeschlagene Regularisierungsschema 1) die Generalisierungsfähigkeit verbessert und die Lerndynamik von GAN-Modellen unter begrenzten Trainingsdaten stabilisiert, sowie 2) die jüngsten Methoden zur Datenverstärkung (data augmentation) ergänzt. Diese Eigenschaften ermöglichen es, GAN-Modelle so zu trainieren, dass sie bei nur begrenzten Trainingsdaten des ImageNet-Benchmarks Zustandsbestleistungen erzielen können.

Regularisierung von Generative Adversarial Networks unter begrenzten Daten | Neueste Forschungsarbeiten | HyperAI