Zu adaptiver menschenzentrierter Videoanomalieerkennung: Ein umfassendes Framework und eine neue Benchmark

Die menschenzentrierte Videoanomalieerkennung (VAD) hat das Ziel, menschliches Verhalten zu identifizieren, das von der Norm abweicht. Im Kern steht bei der menschenzentrierten VAD eine Reihe erheblicher Herausforderungen, wie die Komplexität vielfältiger menschlicher Verhaltensweisen, die Seltenheit von Anomalien und ethische Einschränkungen. Diese Herausforderungen begrenzen den Zugang zu hochwertigen Datensätzen und unterstreichen die Notwendigkeit eines Datensatzes und eines Rahmens, die kontinuierliches Lernen unterstützen. Auf dem Weg zu einer adaptiven menschenzentrierten VAD stellen wir den HuVAD-Datensatz (Human-centric privacy-enhanced Video Anomaly Detection) und ein neues unsupervisiertes kontinuierliches Anomalie-Lernrahmen (UCAL) vor. UCAL ermöglicht inkrementelles Lernen, wodurch Modelle im Laufe der Zeit angepasst werden können und so die Kluft zwischen traditioneller Ausbildung und praktischer Anwendung überbrückt wird. HuVAD legt den Schwerpunkt auf Datenschutz durch Bereitstellung entidentifizierter Annotationen und umfasst sieben Innen- und Außenszenarien, wobei es mehr als fünfmal so viele posenotierte Frames wie frühere Datensätze bietet. Unsere Standard- und kontinuierlichen Benchmarks nutzen eine umfassende Reihe von Metriken, die zeigen, dass UCAL-verstärkte Modelle in 82,14 % der Fälle überlegene Leistungen erzielen und einen neuen Stand der Technik (SOTA) setzen. Der Datensatz ist unter https://github.com/TeCSAR-UNCC/HuVAD zugänglich.