HyperAIHyperAI
vor 4 Monaten

Verbesserung der MMD-GAN-Ausbildung durch eine abstoßende Verlustfunktion

Wei Wang; Yuan Sun; Saman Halgamuge
Verbesserung der MMD-GAN-Ausbildung durch eine abstoßende Verlustfunktion
Abstract

Generative Adversarial Nets (GANs) werden weit verbreitet eingesetzt, um den Datensampling-Prozess zu erlernen, und ihre Leistung kann stark von den Verlustfunktionen abhängen, insbesondere bei einem begrenzten Rechenbudget. Diese Studie untersucht MMD-GAN, das die Maximum Mean Discrepancy (MMD) als Verlustfunktion für GAN verwendet, und macht zwei Beiträge. Erstens argumentieren wir, dass die bestehende MMD-Verlustfunktion das Erlernen feiner Details in den Daten möglicherweise unterbindet, da sie versucht, die Ausgaben des Diskriminators für echte Daten zusammenzuziehen. Um dieses Problem zu lösen, schlagen wir eine repulsive Verlustfunktion vor, die aktiv Unterschiede zwischen echten Daten lernt, indem sie einfach die Terme in der MMD umordnet. Zweitens, inspiriert durch den Hinge-Loss, schlagen wir einen beschränkten Gauß-Kern vor, um das Training von MMD-GAN mit der repulsive Verlustfunktion zu stabilisieren. Die vorgeschlagenen Methoden werden auf unüberwachten Bildgenerierungsaufgaben mit den Datensätzen CIFAR-10, STL-10, CelebA und LSUN Bedroom angewendet. Die Ergebnisse zeigen, dass die repulsive Verlustfunktion im Vergleich zur MMD-Verlustfunktion erhebliche Verbesserungen bringt und dies ohne zusätzlichen Rechenaufwand geschieht. Sie übertrifft zudem andere repräsentative Verlustfunktionen. Die vorgeschlagenen Methoden erreichen einen FID-Wert von 16.21 auf dem CIFAR-10-Datensatz unter Verwendung eines einzelnen DCGAN-Netzes und spektraler Normalisierung.