Alt ist Gold: Die Ausbildungsparadigmen des adversarisch gelernten One-Class-Klassifikators neu definieren

Ein gängiger Ansatz zur Anomalieerkennung besteht darin, den Generator eines adversarialen Netzwerks zu nutzen, um Anomalie-Scores basierend auf der Rekonstruktionsverlustfunktion des Eingabedatensatzes zu definieren. Aufgrund der seltenen Auftretens von Anomalien kann die Optimierung solcher Netzwerke jedoch eine anspruchsvolle Aufgabe darstellen. Ein alternativer Ansatz besteht darin, sowohl den Generator als auch den Diskriminator für die Anomalieerkennung zu nutzen. Aufgrund der Verwendung von adversarialer Trainingsstrategie ist dieses Modell jedoch oft instabil, wobei die Leistungsfähigkeit bei jedem Trainingschritt stark schwankt. In dieser Studie stellen wir einen Rahmen vor, der stabilere Ergebnisse über einen weiten Bereich von Trainingsiterationen ermöglicht und es uns erlaubt, sowohl den Generator als auch den Diskriminator eines adversarialen Modells effizient und robust für die Anomalieerkennung zu nutzen. Unser Ansatz verändert die grundlegende Funktion des Diskriminators von der Unterscheidung zwischen echten und gefälschten Daten hin zur Differenzierung zwischen guter und schlechter Rekonstruktionsqualität. Dazu erstellen wir Trainingsbeispiele für hochwertige Rekonstruktionen mithilfe des aktuellen Generators, während Beispiele mit geringer Qualität durch den Einsatz eines älteren Zustands desselben Generators generiert werden. Auf diese Weise lernt der Diskriminator, feine Verzerrungen zu erkennen, die häufig bei der Rekonstruktion anormaler Eingabedaten auftreten. Umfangreiche Experimente auf den Bild-Datensätzen Caltech-256 und MNIST für die Novelty-Detection zeigen überlegene Ergebnisse. Zudem erreicht unser Modell auf dem Video-Datensatz UCSD Ped2 für die Anomalieerkennung eine Frame-Level-AUC von 98,1 %, was neuere state-of-the-art-Methoden übertrifft.