HyperAIHyperAI

Command Palette

Search for a command to run...

Auto-Encodage Variationnel de Bayes

["name": "Diederik P. Kingma" "affiliation": "Machine Learning Group Universiteit van Amsterdam" "name": "Max Welling" "affiliation": "Machine Learning Group Universiteit van Amsterdam"]

Résumé

Comment effectuer une inférence et un apprentissage efficaces dans les modèles probabalistiques dirigés, en présence de variables latentes continues avec des distributions a posteriori non traçables et de grands ensembles de données ? Nous présentons un algorithme d'inférence variationnelle stochastique et d'apprentissage qui s'adapte aux grands ensembles de données et, sous certaines conditions de différentiabilité modérées, fonctionne même dans le cas non traçable. Nos contributions sont doubles. Premièrement, nous montrons qu'une réparamétrisation de la borne inférieure variationnelle fournit un estimateur de la borne inférieure qui peut être optimisé directement à l'aide de méthodes standards de gradient stochastique. Deuxièmement, nous démontrons que pour des ensembles de données i.i.d. avec des variables latentes continues par point de données, l'inférence a posteriori peut être rendue particulièrement efficace en ajustant un modèle d'inférence approximative (également appelé modèle de reconnaissance) à la distribution a posteriori non traçable en utilisant l'estimateur de la borne inférieure proposé. Les avantages théoriques se reflètent dans les résultats expérimentaux.


Créer de l'IA avec l'IA

De l'idée au lancement — accélérez votre développement IA avec le co-codage IA gratuit, un environnement prêt à l'emploi et le meilleur prix pour les GPU.

Codage assisté par IA
GPU prêts à l’emploi
Tarifs les plus avantageux

HyperAI Newsletters

Abonnez-vous à nos dernières mises à jour
Nous vous enverrons les dernières mises à jour de la semaine dans votre boîte de réception à neuf heures chaque lundi matin
Propulsé par MailChimp