HyperAIHyperAI
il y a 4 mois

Auto-encodeurs centrés sur les objets et anomalies fictives pour la détection d'événements anormaux dans les vidéos

Ionescu, Radu Tudor ; Khan, Fahad Shahbaz ; Georgescu, Mariana-Iuliana ; Shao, Ling
Auto-encodeurs centrés sur les objets et anomalies fictives pour la détection d'événements anormaux dans les vidéos
Résumé

La détection d'événements anormaux dans les vidéos est un problème de vision complexe. La plupart des approches existantes formulent la détection d'événements anormaux comme une tâche de détection d'outliers, en raison de la rareté des données anormales lors de l'entraînement. En raison du manque d'informations a priori concernant les événements anormaux, ces méthodes ne sont pas entièrement équipées pour différencier entre les événements normaux et anormaux. Dans ce travail, nous formalisons la détection d'événements anormaux comme un problème de classification binaire one-versus-rest. Notre contribution est double. Premièrement, nous introduisons un cadre d'apprentissage non supervisé des caractéristiques basé sur des auto-encodeurs convolutionnels centrés sur les objets pour encoder à la fois les informations de mouvement et d'apparence. Deuxièmement, nous proposons une approche de classification supervisée consistant à regrouper les échantillons d'entraînement en clusters de normalité. Un classifieur one-versus-rest d'événements anormaux est ensuite utilisé pour séparer chaque cluster de normalité du reste. Pour l'entraînement du classifieur, les autres clusters agissent comme des anomalies fictives. Lors de l'inférence, un objet est étiqueté comme anormal si le score de classification le plus élevé attribué par les classifieurs one-versus-rest est négatif. Des expériences exhaustives sont menées sur quatre benchmarks : Avenue, ShanghaiTech, UCSD et UMN. Notre approche fournit des résultats supérieurs sur les quatre ensembles de données. Sur le grand ensemble de données ShanghaiTech, notre méthode offre un gain absolu de 8,4 % en termes d'AUC au niveau des images par rapport à la méthode state-of-the-art [Sultani et al., CVPR 2018].