Autoencodeurs insensibles aux latents pour la détection d'anomalies

Les approches fondées sur la reconstruction pour la détection d’anomalies peinent souvent à s’appliquer efficacement aux jeux de données complexes, notamment lorsque les classes cibles présentent une forte variance interclasse. Inspirés de la notion d’apprentissage auto-enseigné utilisée dans le transfert d’apprentissage, de nombreux domaines sont riches en jeux de données non étiquetés similaires, qui pourraient être exploités comme des exemples négatifs représentatifs d’échantillons hors distribution. Dans cet article, nous introduisons le autoencodeur insensible à la latence (LIS-AE), dans lequel des données non étiquetées provenant d’un domaine similaire sont utilisées comme exemples négatifs afin de guider la couche latente (colonne d’étranglement) d’un autoencodeur classique, de manière à ce qu’elle ne soit capable de reconstruire qu’une seule tâche. Nous fournissons une justification théorique du processus d’entraînement et des fonctions de perte proposées, ainsi qu’une étude d’ablation exhaustive mettant en évidence les aspects cruciaux de notre modèle. Nous évaluons notre modèle dans plusieurs scénarios de détection d’anomalies, en présentant une analyse quantitative et qualitative qui démontre de manière significative l’amélioration des performances de notre approche sur des tâches de détection d’anomalies.