HyperAIHyperAI
vor 3 Monaten

DEGAS: Differentiable Efficient Generator Search

Sivan Doveh, Raja Giryes
DEGAS: Differentiable Efficient Generator Search
Abstract

Die Netzwerkarchitektursuche (Network Architecture Search, NAS) erzielt derzeit hervorragende Ergebnisse bei verschiedenen Aufgaben wie Klassifikation und semantischer Segmentierung. Kürzlich wurde ein Ansatz basierend auf Verstärkendem Lernen für die Suche nach Generativen adversarialen Netzwerken (GANs) vorgestellt. In dieser Arbeit schlagen wir eine alternative Strategie für die GAN-Suche vor, die auf einer Methode namens DEGAS (Differentiable Efficient GenerAtor Search) beruht und sich gezielt auf die effiziente Suche nach der Generatorarchitektur in GANs konzentriert. Unser Suchalgorithmus wird durch die differenzierbare Architektursuche und das Verfahren der Global Latent Optimization (GLO) inspiriert, was zu einer effizienten und stabilen Suche nach GAN-Architekturen führt. Nachdem die Generatorarchitektur gefunden wurde, kann sie nahtlos in beliebige bestehende Frameworks für die GAN-Trainingsphase integriert werden. Für CTGAN, das in dieser Arbeit verwendet wird, erreicht das neu entwickelte Modell eine Verbesserung des ursprünglichen Inception-Scores um 0,25 für CIFAR-10 und um 0,77 für STL. Zudem erzielt es bessere Ergebnisse als herkömmliche, auf Verstärkendem Lernen basierende GAN-Suchmethoden, und zwar in kürzerer Suchzeit.

DEGAS: Differentiable Efficient Generator Search | Forschungsarbeiten | HyperAI