HyperAIHyperAI
il y a 2 mois

Apprentissage semi-supervisé avec flux normalisants

Pavel Izmailov; Polina Kirichenko; Marc Finzi; Andrew Gordon Wilson
Apprentissage semi-supervisé avec flux normalisants
Résumé

Les flux normalisants transforment une distribution latente à travers un réseau neuronal inversible pour offrir une approche flexible et agréablement simple de la modélisation générative, tout en préservant une vraisemblance exacte. Nous proposons FlowGMM, une approche de bout en bout pour l'apprentissage supervisé semi-génératif avec des flux normalisants, utilisant un modèle de mélange gaussien latent. FlowGMM se distingue par sa simplicité, son traitement unifié des données étiquetées et non étiquetées avec une vraisemblance exacte, son interprétabilité et sa large applicabilité au-delà des données d'images. Nous montrons des résultats prometteurs sur une gamme variée d'applications, y compris les données textuelles AG-News et Yahoo Answers, les données tabulaires et la classification d'images semi-supervisée. Nous démontrons également que FlowGMM peut découvrir une structure interprétable, fournir des visualisations de caractéristiques en temps réel sans optimisation et spécifier des distributions prédictives bien calibrées.

Apprentissage semi-supervisé avec flux normalisants | Articles de recherche récents | HyperAI