HyperAIHyperAI

Command Palette

Search for a command to run...

Regularisierung von Generative Adversarial Networks unter begrenzten Daten

Hung-Yu Tseng Lu Jiang Ce Liu Ming-Hsuan Yang Weilong Yang

Zusammenfassung

In den letzten Jahren hat man einen raschen Fortschritt bei generativen adversarialen Netzwerken (GANs) beobachtet. Der Erfolg dieser Modelle beruht jedoch auf einer großen Menge an Trainingsdaten. In dieser Arbeit wird ein Regularisierungsansatz vorgeschlagen, um robuste GAN-Modelle unter Nutzung begrenzter Daten zu trainieren. Theoretisch zeigen wir eine Verbindung zwischen der regularisierten Verlustfunktion und einer f-Divergenz, der sogenannten LeCam-Divergenz, die wir als robuster gegenüber begrenzten Trainingsdaten identifizieren. Umfangreiche Experimente an mehreren Benchmark-Datensätzen belegen, dass das vorgeschlagene Regularisierungsschema 1) die Generalisierungsfähigkeit verbessert und die Lerndynamik von GAN-Modellen unter begrenzten Trainingsdaten stabilisiert, sowie 2) die jüngsten Methoden zur Datenverstärkung (data augmentation) ergänzt. Diese Eigenschaften ermöglichen es, GAN-Modelle so zu trainieren, dass sie bei nur begrenzten Trainingsdaten des ImageNet-Benchmarks Zustandsbestleistungen erzielen können.


KI mit KI entwickeln

Von der Idee bis zum Launch – beschleunigen Sie Ihre KI-Entwicklung mit kostenlosem KI-Co-Coding, sofort einsatzbereiter Umgebung und bestem GPU-Preis.

KI-gestütztes kollaboratives Programmieren
Sofort einsatzbereite GPUs
Die besten Preise

HyperAI Newsletters

Abonnieren Sie unsere neuesten Updates
Wir werden die neuesten Updates der Woche in Ihren Posteingang liefern um neun Uhr jeden Montagmorgen
Unterstützt von MailChimp
Regularisierung von Generative Adversarial Networks unter begrenzten Daten | Paper | HyperAI