HyperAIHyperAI

Command Palette

Search for a command to run...

Prévenir l'effondrement postérieur avec les delta-VAEs

Ali Razavi Aaron van den Oord Ben Poole Oriol Vinyals

Résumé

En raison du phénomène de « collapse postérieur », les modèles génératifs actuels à variables latentes posent un choix de conception difficile qui consiste soit à réduire la capacité du décodeur, soit à augmenter l'objectif afin qu'il ne se contente pas uniquement de maximiser la vraisemblance des données. Dans cet article, nous proposons une alternative qui utilise les modèles génératifs les plus puissants comme décodeurs, tout en optimisant la borne inférieure variationnelle et en garantissant que les variables latentes conservent et codent des informations utiles. Nos δ\deltaδ-VAEs (Variational Autoencoders) atteignent cet objectif en imposant une contrainte sur la famille variationnelle pour le postérieur, afin qu'elle maintienne une distance minimale par rapport au prior. Pour les modèles à variables latentes séquentielles, notre approche ressemble à celle de l'analyse de caractéristiques lentes (slow feature analysis), une méthode classique d'apprentissage de représentations. Nous démontrons l'efficacité de notre approche dans la modélisation du texte sur le corpus LM1B et dans la modélisation d'images : apprentissage de représentations, amélioration de la qualité des échantillons, et obtention d'un record de vraisemblance logarithmique sur CIFAR-10 et ImageNet 32×3232 \times 3232×32.


Créer de l'IA avec l'IA

De l'idée au lancement — accélérez votre développement IA avec le co-codage IA gratuit, un environnement prêt à l'emploi et le meilleur prix pour les GPU.

Codage assisté par IA
GPU prêts à l’emploi
Tarifs les plus avantageux

HyperAI Newsletters

Abonnez-vous à nos dernières mises à jour
Nous vous enverrons les dernières mises à jour de la semaine dans votre boîte de réception à neuf heures chaque lundi matin
Propulsé par MailChimp
Prévenir l'effondrement postérieur avec les delta-VAEs | Articles | HyperAI