HyperAIHyperAI
vor 2 Monaten

Zu adaptiver menschenzentrierter Videoanomalieerkennung: Ein umfassendes Framework und eine neue Benchmark

Armin Danesh Pazho; Shanle Yao; Ghazal Alinezhad Noghre; Babak Rahimi Ardabili; Vinit Katariya; Hamed Tabkhi
Zu adaptiver menschenzentrierter Videoanomalieerkennung: Ein umfassendes Framework und eine neue Benchmark
Abstract

Die menschenzentrierte Videoanomalieerkennung (VAD) hat das Ziel, menschliches Verhalten zu identifizieren, das von der Norm abweicht. Im Kern steht bei der menschenzentrierten VAD eine Reihe erheblicher Herausforderungen, wie die Komplexität vielfältiger menschlicher Verhaltensweisen, die Seltenheit von Anomalien und ethische Einschränkungen. Diese Herausforderungen begrenzen den Zugang zu hochwertigen Datensätzen und unterstreichen die Notwendigkeit eines Datensatzes und eines Rahmens, die kontinuierliches Lernen unterstützen. Auf dem Weg zu einer adaptiven menschenzentrierten VAD stellen wir den HuVAD-Datensatz (Human-centric privacy-enhanced Video Anomaly Detection) und ein neues unsupervisiertes kontinuierliches Anomalie-Lernrahmen (UCAL) vor. UCAL ermöglicht inkrementelles Lernen, wodurch Modelle im Laufe der Zeit angepasst werden können und so die Kluft zwischen traditioneller Ausbildung und praktischer Anwendung überbrückt wird. HuVAD legt den Schwerpunkt auf Datenschutz durch Bereitstellung entidentifizierter Annotationen und umfasst sieben Innen- und Außenszenarien, wobei es mehr als fünfmal so viele posenotierte Frames wie frühere Datensätze bietet. Unsere Standard- und kontinuierlichen Benchmarks nutzen eine umfassende Reihe von Metriken, die zeigen, dass UCAL-verstärkte Modelle in 82,14 % der Fälle überlegene Leistungen erzielen und einen neuen Stand der Technik (SOTA) setzen. Der Datensatz ist unter https://github.com/TeCSAR-UNCC/HuVAD zugänglich.