Auto-Encodage Variationnel de Bayes

Comment effectuer une inférence et un apprentissage efficaces dans les modèles probabalistiques dirigés, en présence de variables latentes continues avec des distributions a posteriori non traçables et de grands ensembles de données ? Nous présentons un algorithme d'inférence variationnelle stochastique et d'apprentissage qui s'adapte aux grands ensembles de données et, sous certaines conditions de différentiabilité modérées, fonctionne même dans le cas non traçable. Nos contributions sont doubles. Premièrement, nous montrons qu'une réparamétrisation de la borne inférieure variationnelle fournit un estimateur de la borne inférieure qui peut être optimisé directement à l'aide de méthodes standards de gradient stochastique. Deuxièmement, nous démontrons que pour des ensembles de données i.i.d. avec des variables latentes continues par point de données, l'inférence a posteriori peut être rendue particulièrement efficace en ajustant un modèle d'inférence approximative (également appelé modèle de reconnaissance) à la distribution a posteriori non traçable en utilisant l'estimateur de la borne inférieure proposé. Les avantages théoriques se reflètent dans les résultats expérimentaux.