HyperAIHyperAI

Command Palette

Search for a command to run...

Formation de GAN à grande échelle pour la synthèse d'images naturelles de haute fidélité

Andrew Brock Jeff Donahue Karen Simonyan

Résumé

Malgré les progrès récents dans la modélisation d'images génératives, la génération réussie d'échantillons de haute résolution et diversifiés à partir de jeux de données complexes tels qu'ImageNet reste un objectif difficile à atteindre. Dans cette optique, nous avons formé des Réseaux de Génération Adversariaux (Generative Adversarial Networks, GANs) à l'échelle la plus grande tentée jusqu'à présent, et nous avons étudié les instabilités spécifiques à une telle échelle. Nous constatons que l'application de la régularisation orthogonale au générateur le rend adaptable à un simple « truc de troncature » (« truncation trick »), permettant un contrôle fin du compromis entre la fidélité des échantillons et leur variété en réduisant la variance de l'entrée du Générateur. Nos modifications conduisent à des modèles qui établissent un nouveau niveau d'excellence dans la synthèse d'images conditionnelle par classe. Lorsqu'ils sont formés sur ImageNet à une résolution de 128x128, nos modèles (BigGANs) obtiennent un score Inception (IS) de 166,5 et une distance Fréchet Inception (FID) de 7,4, améliorant ainsi le meilleur IS précédent de 52,52 et la meilleure FID précédente de 18,6.


Créer de l'IA avec l'IA

De l'idée au lancement — accélérez votre développement IA avec le co-codage IA gratuit, un environnement prêt à l'emploi et le meilleur prix pour les GPU.

Codage assisté par IA
GPU prêts à l’emploi
Tarifs les plus avantageux

HyperAI Newsletters

Abonnez-vous à nos dernières mises à jour
Nous vous enverrons les dernières mises à jour de la semaine dans votre boîte de réception à neuf heures chaque lundi matin
Propulsé par MailChimp