Eine Neubewertung der sparsen Codierungsbasierten Anomalieerkennung im gestapelten RNN-Rahmen

Angeregt durch die Fähigkeit der sparsen Kodierung zur Anomalieerkennung, schlagen wir eine zeitlich kohärente sparsen Kodierung (Temporal Sparse Coding, TSC) vor, bei der sich benachbarte Frames durch ähnliche Rekonstruktionskoeffizienten kodieren lassen. Anschließend wird die TSC mittels eines speziellen Typs von gestapelten rekurrenten neuronalen Netzen (stacked Recurrent Neural Network, sRNN) abgebildet. Durch die Nutzung der Fähigkeit des sRNN, alle Parameter gleichzeitig zu lernen, kann die aufwändige Auswahl von Hyperparametern für die TSC vermieden werden. Gleichzeitig ermöglicht ein flaches sRNN die Ableitung der Rekonstruktionskoeffizienten innerhalb eines einzigen Vorwärtsdurchlaufs, wodurch die Rechenkosten für das Lernen sparsamer Koeffizienten erheblich reduziert werden. Die Beiträge dieses Papers sind zweifach: i) Wir stellen eine TSC vor, die auf ein sRNN abgebildet werden kann, was die Optimierung der Parameter erleichtert und die Vorhersage von Anomalien beschleunigt. ii) Wir erstellen einen sehr großen Datensatz, der sowohl hinsichtlich des Datenvolumens als auch der Szenenvielfalt größer ist als die Summe aller bisher existierenden Datensätze für die Anomalieerkennung. Umfangreiche Experimente an einem Toy-Datensatz sowie an realen Datensätzen zeigen, dass unsere auf TSC und sRNN basierende Methode stets die bestehenden Ansätze übertrifft, was die Wirksamkeit unseres Verfahrens bestätigt.