Old is Gold : Redéfinir le paradigme d'entraînement du classificateur à une seule classe appris par apprentissage adversaire

Une méthode courante pour la détection d’anomalies consiste à utiliser le générateur d’un réseau adversaire afin de formuler des scores d’anomalie à partir de la perte de reconstruction des entrées. En raison de la rareté des anomalies, l’optimisation de tels réseaux peut s’avérer une tâche ardue. Une autre approche envisageable consiste à exploiter à la fois le générateur et le discriminateur pour la détection d’anomalies. Toutefois, en raison de l’implémentation de l’apprentissage adversaire, ce modèle présente souvent une instabilité telle que ses performances fluctuent fortement à chaque étape d’entraînement. Dans cette étude, nous proposons un cadre permettant d’obtenir des résultats stables sur une large gamme d’étapes d’entraînement, tout en permettant une utilisation efficace et robuste à la fois du générateur et du discriminateur d’un modèle adversaire pour la détection d’anomalies. Notre approche repense le rôle fondamental du discriminateur, qui passe de la distinction entre données réelles et artificielles à celle entre reconstructions de bonne et de mauvaise qualité. Pour cela, nous préparons des exemples d’entraînement pour les reconstructions de bonne qualité à l’aide du générateur actuel, tandis que les exemples de mauvaise qualité sont obtenus à partir d’un état antérieur du même générateur. Ainsi, le discriminateur apprend à détecter des distorsions subtiles fréquemment présentes dans les reconstructions des entrées anormales. Des expériences étendues menées sur les jeux de données d’images Caltech-256 et MNIST pour la détection de nouveautés montrent des résultats supérieurs. De plus, sur le jeu de données vidéo UCSD Ped2 pour la détection d’anomalies, notre modèle atteint un AUC au niveau des images de 98,1 %, dépassant ainsi les méthodes les plus récentes de l’état de l’art.