HyperAIHyperAI
il y a 2 mois

Découvrir des sujets latents discrets avec l'inférence variationnelle neurale

Yishu Miao; Edward Grefenstette; Phil Blunsom
Découvrir des sujets latents discrets avec l'inférence variationnelle neurale
Résumé

Les modèles de sujets ont été largement explorés en tant que modèles génératifs probabilistes de documents. Les méthodes d'inférence traditionnelles ont cherché des dérivations sous forme fermée pour mettre à jour ces modèles ; cependant, à mesure que l'expressivité de ces modèles augmente, la difficulté d'effectuer une inférence rapide et précise sur leurs paramètres s'accroît également. Cet article présente des approches neuronales alternatives au modèle de sujets en proposant des distributions paramétrables sur les sujets qui permettent l'entraînement par rétropropagation dans le cadre de l'inférence variationnelle neuronale. De plus, avec l'aide d'une construction par rupture de bâton (stick-breaking), nous proposons un réseau récurrent capable de découvrir un nombre notionnellement illimité de sujets, similaire aux modèles de sujets non-paramétriques bayésiens. Les résultats expérimentaux sur les jeux de données MXM Song Lyrics, 20Newsgroups et Reuters News démontrent l'efficacité et l'efficience de ces modèles neuronaux de sujets.

Découvrir des sujets latents discrets avec l'inférence variationnelle neurale | Articles de recherche récents | HyperAI