Détection d'anomalies par distillation inverse à partir d'embedding à une seule classe

La distillation de connaissances (KD) obtient des résultats prometteurs sur le problème difficile de la détection d’anomalies non supervisée (AD). Le désaccord de représentation entre les anomalies dans le modèle enseignant-étudiant (T-S) fournit une preuve essentielle pour la détection d’anomalies. Toutefois, l’utilisation d’architectures similaires ou identiques pour construire les modèles enseignant et étudiant dans les travaux antérieurs limite la diversité des représentations d’anomalies. Pour résoudre ce problème, nous proposons un nouveau modèle T-S composé d’un encodeur enseignant et d’un décodeur étudiant, et introduisons par conséquent un paradigme simple mais efficace appelé « distillation inversée ». Contrairement à l’entrée directe d’images brutes, le réseau étudiant reçoit comme entrée l’encodage à une seule classe fourni par le modèle enseignant, et vise à restaurer les représentations multi-échelles de ce dernier. De manière intrinsèque, la distillation de connaissances dans cette étude s’effectue à partir de représentations abstraites et de haut niveau vers des caractéristiques de bas niveau. Par ailleurs, nous introduisons dans notre modèle T-S un module d’encodage à goulot d’étranglement à une seule classe (OCBE), entraînable. L’encodage compact ainsi obtenu préserve efficacement les informations essentielles relatives aux motifs normaux, tout en éliminant les perturbations liées aux anomalies. Des expérimentations étendues sur des benchmarks de détection d’anomalies et de détection de nouveautés à une seule classe montrent que notre méthode surpasser les performances de l’état de l’art, démontrant ainsi l’efficacité et la généralisation de l’approche proposée.