Semi-Supervised Learning mit Normalisierenden Flüssen

Normalizing Flows transformieren eine latente Verteilung durch ein invertierbares neuronales Netzwerk zu einem flexiblen und elegant einfachen Ansatz für generatives Modellieren, wobei die exakte Likelihood erhalten bleibt. Wir schlagen FlowGMM vor, einen end-to-end Ansatz für generatives semisupervises Lernen mit Normalizing Flows unter Verwendung eines latenten Gaußschen Mischmodells. FlowGMM zeichnet sich durch seine Einfachheit, die einheitliche Behandlung von etikettierten und nicht etikettierten Daten mit einer exakten Likelihood, Interpretierbarkeit und breite Anwendbarkeit über Bildendaten hinaus aus. Wir präsentieren vielversprechende Ergebnisse in einer Vielzahl von Anwendungen, darunter Textdaten wie AG-News und Yahoo Answers, Tabellenformate-Daten sowie semisupervisierte Bildklassifizierung. Darüber hinaus zeigen wir, dass FlowGMM interpretierbare Strukturen entdecken kann, optimierungsfreie Feature-Visualisierungen in Echtzeit bereitstellt und gut kalibrierte prädiktive Verteilungen spezifiziert.