HyperAIHyperAI

Command Palette

Search for a command to run...

DEGAS: Differentiable Efficient Generator Search

Sivan Doveh Raja Giryes

Zusammenfassung

Die Netzwerkarchitektursuche (Network Architecture Search, NAS) erzielt derzeit hervorragende Ergebnisse bei verschiedenen Aufgaben wie Klassifikation und semantischer Segmentierung. Kürzlich wurde ein Ansatz basierend auf Verstärkendem Lernen für die Suche nach Generativen adversarialen Netzwerken (GANs) vorgestellt. In dieser Arbeit schlagen wir eine alternative Strategie für die GAN-Suche vor, die auf einer Methode namens DEGAS (Differentiable Efficient GenerAtor Search) beruht und sich gezielt auf die effiziente Suche nach der Generatorarchitektur in GANs konzentriert. Unser Suchalgorithmus wird durch die differenzierbare Architektursuche und das Verfahren der Global Latent Optimization (GLO) inspiriert, was zu einer effizienten und stabilen Suche nach GAN-Architekturen führt. Nachdem die Generatorarchitektur gefunden wurde, kann sie nahtlos in beliebige bestehende Frameworks für die GAN-Trainingsphase integriert werden. Für CTGAN, das in dieser Arbeit verwendet wird, erreicht das neu entwickelte Modell eine Verbesserung des ursprünglichen Inception-Scores um 0,25 für CIFAR-10 und um 0,77 für STL. Zudem erzielt es bessere Ergebnisse als herkömmliche, auf Verstärkendem Lernen basierende GAN-Suchmethoden, und zwar in kürzerer Suchzeit.


KI mit KI entwickeln

Von der Idee bis zum Launch – beschleunigen Sie Ihre KI-Entwicklung mit kostenlosem KI-Co-Coding, sofort einsatzbereiter Umgebung und bestem GPU-Preis.

KI-gestütztes kollaboratives Programmieren
Sofort einsatzbereite GPUs
Die besten Preise

HyperAI Newsletters

Abonnieren Sie unsere neuesten Updates
Wir werden die neuesten Updates der Woche in Ihren Posteingang liefern um neun Uhr jeden Montagmorgen
Unterstützt von MailChimp