Deep Autoencoding Gaussian Mixture Model für die unüberwachte Anomalieerkennung

Die unsupervised Anomalieerkennung auf multi- oder hochdimensionalen Daten ist sowohl in der grundlegenden Forschung im Bereich des maschinellen Lernens als auch in industriellen Anwendungen von großer Bedeutung, wobei die Dichteschätzung im Zentrum steht. Obwohl frühere Ansätze, die auf einer Dimensionsreduktion gefolgt von einer Dichteschätzung basieren, erhebliche Fortschritte erzielt haben, leiden sie hauptsächlich unter einer entkoppelten Modellierung mit inkonsistenten Optimierungszielen und der Unfähigkeit, wesentliche Informationen im niedrigdimensionalen Raum zu bewahren. In diesem Artikel präsentieren wir ein tiefes Autoencoding-Gaußsches Gemischmodell (Deep Autoencoding Gaussian Mixture Model, DAGMM) für die unsupervised Anomalieerkennung. Unser Modell nutzt einen tiefen Autoencoder, um für jeden Eingabepunkt eine niedrigdimensionale Darstellung sowie einen Rekonstruktionsfehler zu generieren, die anschließend in ein Gaußsches Gemischmodell (GMM) eingespeist werden. Im Gegensatz zu entkoppelten zweistufigen Trainingsansätzen und dem klassischen Erwartungswert-Maximierungsalgorithmus (Expectation-Maximization, EM) optimiert DAGMM die Parameter des tiefen Autoencoders und des Gemischmodells gleichzeitig und end-to-end, wobei ein separates Schätznetzwerk zur Unterstützung der Parameterlernen des Gemischmodells herangezogen wird. Die gemeinsame Optimierung, die die Rekonstruktion durch Autoencoding, die Dichteschätzung der latenten Darstellung und Regularisierung gut ausbalanciert, ermöglicht es dem Autoencoder, aus weniger attraktiven lokalen Optima auszubrechen und die Rekonstruktionsfehler weiter zu reduzieren, wodurch ein vorheriges Pre-Training entfällt. Experimentelle Ergebnisse auf mehreren öffentlichen Benchmark-Datensätzen zeigen, dass DAGMM die derzeit besten Anomalieerkennungstechniken signifikant übertrifft und im Standard-F1-Score bis zu 14 % Verbesserung erzielt.