HyperAIHyperAI
vor 17 Tagen

Aufdeckung von Outlier Exposure: Was aus wenigen, einer und null Ausreißerbildern gelernt werden kann

Philipp Liznerski, Lukas Ruff, Robert A. Vandermeulen, Billy Joe Franks, Klaus-Robert Müller, Marius Kloft
Aufdeckung von Outlier Exposure: Was aus wenigen, einer und null Ausreißerbildern gelernt werden kann
Abstract

Aufgrund der Schwierigkeit, alles zu charakterisieren, was von den normalen Daten abweicht, wird die Anomalieerkennung (AD) traditionell als ein überwachungsloses Problem behandelt, das ausschließlich auf normalen Beispielen basiert. In jüngster Zeit wurde jedoch festgestellt, dass die überwachungslose Bild-AD erheblich verbessert werden kann, indem riesige Korpora zufälliger Bilder zur Repräsentation von Anomalien genutzt werden – eine Technik, die als Outlier Exposure bekannt ist. In diesem Paper zeigen wir, dass spezialisierte AD-Lernmethoden für Leistungen auf State-of-the-Art-Niveau nicht notwendig sind, und dass bereits eine kleine Menge Outlier Exposure-Daten ausreicht, um starke Ergebnisse zu erzielen, was die gängigen Annahmen in der AD-Forschung in Frage stellt. Wir finden, dass herkömmliche Klassifikatoren sowie semi-supervised One-Class-Methoden, die darauf trainiert wurden, zwischen normalen Beispielen und einer relativ geringen Anzahl zufälliger natürlicher Bilder zu unterscheiden, die aktuelle State-of-the-Art-Leistung auf einem etablierten AD-Benchmark mit ImageNet übertreffen können. Weitere Experimente zeigen, dass selbst ein einziger gut gewählter Ausreißer ausreicht, um eine anständige Leistung auf diesem Benchmark zu erzielen (79,3 % AUC). Wir untersuchen dieses Phänomen und stellen fest, dass One-Class-Methoden robuster gegenüber der Auswahl der Trainingsausreißer sind, was darauf hindeutet, dass es Szenarien gibt, in denen sie immer noch nützlicher als herkömmliche Klassifikatoren sind. Zudem führen wir Experimente durch, die die Bedingungen genau abgrenzen, unter denen unsere Ergebnisse gelten. Schließlich sind bei Verwendung der von CLIP, einem jüngst vorgestellten Foundation-Modell, erlernten Repräsentationen keine Trainingsbeispiele erforderlich, wodurch state-of-the-art-AD-Ergebnisse auf CIFAR-10 und ImageNet in einem Zero-Shot-Setting erreicht werden können.

Aufdeckung von Outlier Exposure: Was aus wenigen, einer und null Ausreißerbildern gelernt werden kann | Neueste Forschungsarbeiten | HyperAI