L'Autoencodeur Équitable Variationnel

Nous examinons le problème d'apprentissage de représentations qui sont invariantes à certains facteurs de variation indésirables ou sensibles dans les données tout en conservant autant que possible l'information restante. Notre modèle est basé sur une architecture d'auto-encodeur variationnel avec des a priori qui favorisent l'indépendance entre les facteurs de variation sensibles et latents. Tout traitement ultérieur, tel que la classification, peut ensuite être effectué sur cette représentation latente purgée. Pour éliminer toute dépendance résiduelle, nous intégrons un terme de pénalité supplémentaire basé sur la mesure de "Divergence Moyenne Maximale" (Maximum Mean Discrepancy - MMD). Nous discutons de la manière dont ces architectures peuvent être formées efficacement sur les données et montrons par des expériences que cette méthode est plus efficace que les travaux précédents pour supprimer les sources de variation indésirables tout en maintenant des représentations latentes informatives.