Lernen, Anomalien nicht wiederherzustellen

Die Anomalieerkennung in Videos wird häufig als One-Class-Classification-(OCC)-Problem betrachtet, da Anomalien selten vorkommen und somit nur wenige Beispiele verfügbar sind. Typischerweise wird hierfür ein Autoencoder (AE) trainiert, um die Eingabedaten mit einem Trainingsset, das ausschließlich aus normalen Daten besteht, wiederherzustellen. Im Testzeitpunkt soll der AE die normalen Daten gut rekonstruieren, während die Rekonstruktion anomaler Daten schlecht gelingen soll. Allerdings haben mehrere Studien gezeigt, dass Autoencoder selbst bei reiner Trainingsdaten mit normalen Beispielen häufig auch Anomalien gut rekonstruieren können, was die Leistung der Anomalieerkennung erheblich beeinträchtigt. Um dieses Problem zu mildern, schlagen wir eine neuartige Methodik vor, bei der Autoencoder so trainiert werden, dass sie ausschließlich normale Daten rekonstruieren, unabhängig von der Eingabe (also ob normal oder abnormal). Da in OCC-Szenarien keine echten Anomalien verfügbar sind, werden zur Unterstützung des Trainings sogenannte Pseudo-Anomalien verwendet, die durch Manipulation normaler Daten erzeugt werden, um die Verteilung außerhalb der normalen Daten zu simulieren. Zusätzlich schlagen wir zwei Methoden zur Generierung von Pseudo-Anomalien vor: eine basierend auf Patch-Manipulation und eine basierend auf Skip-Frame-Techniken. Umfassende Experimente auf drei anspruchsvollen Datensätzen zur Video-Anomalieerkennung belegen die Wirksamkeit unserer Methode, die die Leistung herkömmlicher Autoencoder deutlich verbessert und state-of-the-art-Ergebnisse erzielt.