Erklärbare tiefe One-Class-Klassifikation

Tiefen Ein-Klassen-Klassifikationsvarianten für die Anomalieerkennung lernen eine Abbildung, die nominale Datenpunkte im Merkmalsraum konzentriert und Anomalien entsprechend von diesem Bereich wegbewegt. Da diese Transformation stark nichtlinear ist, stellt die Interpretierbarkeit eine erhebliche Herausforderung dar. In diesem Artikel präsentieren wir eine erklärbare tiefe Ein-Klassen-Klassifikationsmethode, die Fully Convolutional Data Description (FCDD), bei der die abgebildeten Datenpunkte selbst als Erklärungshitmap dienen. FCDD erreicht wettbewerbsfähige Erkennungsleistung und liefert sinnvolle Erklärungen auf gängigen Benchmarks für Anomalieerkennung mit CIFAR-10 und ImageNet. Auf MVTec-AD, einem kürzlich veröffentlichten Datensatz aus der Fertigungsindustrie mit ground-truth-Anomaliekarten, erreicht FCDD eine neue State-of-the-Art-Leistung im unüberwachten Setting. Unser Ansatz ermöglicht die Einbeziehung von ground-truth-Anomaliekarten während des Trainings, wobei bereits wenige solcher Karten (~5) die Leistung erheblich verbessern. Schließlich zeigen wir mithilfe der Erklärungen von FCDD die Verwundbarkeit tiefer Ein-Klassen-Klassifikationsmodelle gegenüber künstlichen Bildmerkmalen wie Wasserzeichen.