HyperAIHyperAI

Command Palette

Search for a command to run...

DEGAS : Recherche différentiable efficace de générateur

Sivan Doveh Raja Giryes

Résumé

La recherche d'architecture de réseau (NAS) atteint des résultats de pointe dans diverses tâches telles que la classification et la segmentation sémantique. Récemment, une approche fondée sur l'apprentissage par renforcement a été proposée pour la recherche d'architectures de réseaux adverses génératifs (GAN). Dans ce travail, nous proposons une stratégie alternative pour la recherche de GAN en utilisant une méthode appelée DEGAS (Differentiable Efficient GenerAtor Search), qui se concentre sur la recherche efficace de l'architecture du générateur dans un GAN. Notre algorithme de recherche s'inspire de la stratégie de recherche d'architecture différentiable ainsi que de la procédure d'optimisation latente globale (GLO), ce qui permet d'obtenir une recherche de GAN à la fois efficace et stable. Une fois l'architecture du générateur identifiée, elle peut être intégrée dans n'importe quel cadre existant pour l'entraînement de GAN. Pour CTGAN, utilisé dans ce travail, le nouveau modèle dépasse les résultats initiaux de l'indice d'inception de 0,25 sur CIFAR-10 et de 0,77 sur STL, tout en surpassant les méthodes de recherche de GAN basées sur l'apprentissage par renforcement, avec un temps de recherche plus court.


Créer de l'IA avec l'IA

De l'idée au lancement — accélérez votre développement IA avec le co-codage IA gratuit, un environnement prêt à l'emploi et le meilleur prix pour les GPU.

Codage assisté par IA
GPU prêts à l’emploi
Tarifs les plus avantageux

HyperAI Newsletters

Abonnez-vous à nos dernières mises à jour
Nous vous enverrons les dernières mises à jour de la semaine dans votre boîte de réception à neuf heures chaque lundi matin
Propulsé par MailChimp
DEGAS : Recherche différentiable efficace de générateur | Articles | HyperAI