CMVAE : Causal Meta VAE pour l'apprentissage meta non supervisé

L'apprentissage méta non supervisé vise à acquérir des connaissances métiers à partir de données non étiquetées et à s'adapter rapidement à de nouvelles tâches. Cependant, les approches existantes peuvent être induites en erreur par le biais contextuel (par exemple, l'arrière-plan) provenant des données d'entraînement. Dans cet article, nous abstrayons le problème d'apprentissage méta non supervisé dans un Modèle Causal Structurel (SCM) et soulignons que ce biais est dû aux facteurs confondants cachés. Pour éliminer ces facteurs confondants, nous définissons les a priori comme étant \textit{conditionnellement} indépendants, apprenons les relations entre ces a priori et intervenons sur eux grâce à la factorisation causale. De plus, nous proposons le Causal Meta VAE (CMVAE), qui encode les a priori en codes latents dans l'espace causal et apprend simultanément leurs relations afin d'atteindre la tâche de classification d'images en faible nombre de shots. Les résultats sur des jeux de données simples et trois jeux de données de référence montrent que notre méthode peut supprimer le biais contextuel et qu'elle surpasses les autres algorithmes d'apprentissage méta non supervisé de pointe grâce à cette suppression du biais. Le code source est disponible à l'adresse \url{https://github.com/GuodongQi/CMVAE}.