HyperAIHyperAI
vor 17 Tagen

AltUB: Alternierender Trainingsansatz zur Aktualisierung der Basisverteilung von Normalisierungsflüssen für die Anomalieerkennung

Yeongmin Kim, Huiwon Jang, DongKeon Lee, Ho-Jin Choi
AltUB: Alternierender Trainingsansatz zur Aktualisierung der Basisverteilung von Normalisierungsflüssen für die Anomalieerkennung
Abstract

Unüberwachtes Anomalieerkennung gewinnt derzeit in zahlreichen praktischen Anwendungsbereichen an Bedeutung, da Anomaliedaten in der Regel nur in begrenzter Menge verfügbar sind. Eine der zentralen Ansätze hierfür ist die Normalisierungsfluss-Methode (normalizing flow), die eine invertierbare Transformation einer komplexen Verteilung – beispielsweise von Bildern – in eine einfache Zielverteilung wie die Standardnormalverteilung N(0, I) anstrebt. Tatsächlich erreichen Algorithmen auf Basis von Normalisierungsflüssen, wie FastFlow und CFLOW-AD, derzeit den Stand der Technik bei unüberwachten Anomalieerkennungsaufgaben. Dennoch zeigen wir, dass diese Algorithmen normale Bilder nicht wie ursprünglich vorgesehen in die exakte Verteilung N(0, I) transformieren, sondern in eine beliebige, nicht spezifizierte Normalverteilung. Darüber hinaus sind ihre Leistungen oft instabil – ein besonders kritisches Problem bei unüberwachten Aufgaben, da keine validierenden Daten zur Verfügung stehen. Um diese Einschränkungen zu überwinden, schlagen wir eine einfache Lösung vor: AltUB, die alternierendes Training einführt, um die Basisverteilung des Normalisierungsflusses für die Anomalieerkennung dynamisch anzupassen. AltUB verbessert wirksam die Stabilität der Leistung von Normalisierungsflüssen. Zudem erreicht unsere Methode auf dem MVTec AD-Datensatz eine neue State-of-the-Art-Leistung bei der Anomalie-Segmentierung mit 98,8 % AUROC.

AltUB: Alternierender Trainingsansatz zur Aktualisierung der Basisverteilung von Normalisierungsflüssen für die Anomalieerkennung | Neueste Forschungsarbeiten | HyperAI