HyperAIHyperAI

Command Palette

Search for a command to run...

Échapper aux modes s'effondrant dans un espace contraint

Chia-Che Chang; Chieh Hubert Lin; Che-Rung Lee; Da-Cheng Juan; Wei Wei; Hwann-Tzong Chen

Résumé

Les réseaux de neurones génératifs adverses (GANs) souffrent souvent d'un effondrement de modes imprévisible au cours de l'entraînement. Nous étudions le problème de l'effondrement des modes du réseau génératif adverse d'équilibre frontière (BEGAN), qui est l'un des modèles génératifs les plus avancés actuellement. Malgré son potentiel pour générer des images de haute qualité, nous constatons que le BEGAN a tendance à s'effondrer sur certains modes après une période d'entraînement. Nous proposons un nouveau modèle, appelé \emph{BEGAN avec un Espace Contraint} (BEGAN-CS), qui intègre une contrainte dans l'espace latent dans la fonction de perte. Nous démontrons que le BEGAN-CS peut considérablement améliorer la stabilité de l'entraînement et supprimer l'effondrement des modes sans augmenter la complexité du modèle ou dégrader la qualité des images. De plus, nous visualisons la distribution des vecteurs latents pour éclaircir l'effet de la contrainte dans l'espace latent. Les résultats expérimentaux montrent que notre méthode présente également l'avantage supplémentaire de pouvoir s'entraîner sur des ensembles de données petits et de générer des images similaires à une image réelle donnée, tout en introduisant des variations d'attributs spécifiques en temps réel.


Créer de l'IA avec l'IA

De l'idée au lancement — accélérez votre développement IA avec le co-codage IA gratuit, un environnement prêt à l'emploi et le meilleur prix pour les GPU.

Codage assisté par IA
GPU prêts à l’emploi
Tarifs les plus avantageux

HyperAI Newsletters

Abonnez-vous à nos dernières mises à jour
Nous vous enverrons les dernières mises à jour de la semaine dans votre boîte de réception à neuf heures chaque lundi matin
Propulsé par MailChimp