HyperAIHyperAI
il y a 16 jours

Autoencodeur probabiliste

Vanessa Böhm, Uroš Seljak
Autoencodeur probabiliste
Résumé

L’analyse en composantes principales (PCA) minimise l’erreur de reconstruction parmi une classe de modèles linéaires de dimensionnalité fixée pour les composantes. La PCA probabiliste ajoute une structure probabiliste en apprenant la distribution de probabilité des poids de l’espace latent de la PCA, ce qui permet de construire un modèle génératif. Les autoencodeurs (AE) minimisent l’erreur de reconstruction dans une classe de modèles non linéaires de dimensionnalité fixée de l’espace latent, et surpassent la PCA à dimensionnalité fixée. Dans cet article, nous introduisons l’autoencodeur probabiliste (PAE), qui apprend la distribution de probabilité des poids de l’espace latent de l’AE à l’aide d’un flot normalisant (NF). Le PAE est rapide et facile à entraîner, atteint de faibles erreurs de reconstruction, une qualité élevée des échantillons et de bonnes performances sur des tâches ultérieures. Nous comparons le PAE à l’autoencodeur variationnel (VAE), en montrant que le PAE s’entraîne plus rapidement, atteint une erreur de reconstruction plus faible et produit des échantillons de haute qualité sans nécessiter de réglages spéciaux ou de procédures d’entraînement particulières. Nous démontrons également que le PAE constitue un modèle puissant pour des tâches ultérieures telles que la reconstruction d’images probabiliste dans le cadre de l’inférence bayésienne des problèmes inverses, notamment pour des applications d’imputation (inpainting) et de débruitage. Enfin, nous identifions la densité de l’espace latent obtenue via le flot normalisant comme une métrique prometteuse pour la détection d’outliers.