Probabilistischer Autoencoder

Die Hauptkomponentenanalyse (PCA) minimiert den Rekonstruktionsfehler innerhalb einer Klasse linearer Modelle mit fester Komponentenanzahl. Die probabilistische PCA ergänzt dieses Verfahren durch die Einführung einer probabilistischen Struktur, indem sie die Wahrscheinlichkeitsverteilung der latenten Raumgewichte der PCA lernt und somit ein generatives Modell schafft. Autoencoder (AE) minimieren den Rekonstruktionsfehler innerhalb einer Klasse nichtlinearer Modelle mit fester Dimension des latenten Raums und übertrumpfen die PCA bei fester Dimension. Hier stellen wir den probabilistischen Autoencoder (PAE) vor, der mithilfe einer Normalisierungsfluss-Technik (Normalizing Flow, NF) die Wahrscheinlichkeitsverteilung der latenten Raumgewichte eines AE lernt. Der PAE ist schnell und einfach zu trainieren und erreicht geringe Rekonstruktionsfehler, hohe Qualität generierter Proben sowie hervorragende Leistung bei nachgeschalteten Aufgaben. Wir vergleichen den PAE mit dem Variationalen Autoencoder (VAE) und zeigen, dass der PAE schneller konvergiert, einen niedrigeren Rekonstruktionsfehler erreicht und eine gute Probenqualität liefert, ohne besondere Tuning-Parameter oder spezielle Trainingsverfahren zu erfordern. Weiterhin demonstrieren wir, dass der PAE ein leistungsfähiges Modell für nachgeschaltete Aufgaben ist, insbesondere im Kontext der probabilistischen Bildrekonstruktion bei der bayesschen Inferenz inverser Probleme für Anwendungen im Bereich der Inpainting- und Rauschunterdrückung. Schließlich identifizieren wir die Dichte im latenten Raum, die mittels NF geschätzt wird, als vielversprechendes Maß für die Erkennung von Ausreißern.