UBnormal: Neuer Benchmark für überwachten Open-Set-Video-Anomalie-Detection

Die Erkennung abnormaler Ereignisse in Videos wird üblicherweise als One-Class-Klassifikationsaufgabe formuliert, bei der Trainingsvideos ausschließlich normale Ereignisse enthalten, während Testvideos sowohl normale als auch abnormale Ereignisse beinhalten. In diesem Szenario stellt die Anomalieerkennung ein Open-Set-Problem dar. Einige Studien hingegen integrieren die Anomalieerkennung in die Aktionserkennung, was eine Closed-Set-Situation darstellt und die Fähigkeit von Systemen zur Erkennung neuer Anomalietypen nicht angemessen testet. Um dies zu adressieren, stellen wir UBnormal vor – einen neuen, überwachten Open-Set-Benchmark für die Video-Anomalieerkennung, bestehend aus mehreren virtuellen Szenen. Im Gegensatz zu bestehenden Datensätzen führen wir erstmals Anomalien auf Pixel-Ebene annotiert in der Trainingsphase ein, was erstmals die Anwendung vollständig überwachter Lernmethoden für die Erkennung abnormaler Ereignisse ermöglicht. Um die typische Open-Set-Formulierung beizubehalten, stellen wir sicher, dass die in den Trainings- und Testvideos enthaltenen Anomalietypen disjunkt sind. Soweit uns bekannt ist, ist UBnormal der erste Benchmark für Video-Anomalieerkennung, der einen fairen direkten Vergleich zwischen One-Class-Open-Set-Modellen und überwachten Closed-Set-Modellen erlaubt, wie unsere Experimente zeigen. Darüber hinaus liefern wir empirische Belege dafür, dass UBnormal die Leistung eines state-of-the-art-Anomalieerkennungsframeworks auf zwei prominenten Datensätzen, Avenue und ShanghaiTech, verbessern kann. Unser Benchmark ist frei verfügbar unter https://github.com/lilygeorgescu/UBnormal.