Fake It Till You Make It: Towards Accurate Near-Distribution Novelty Detection

Wir streben eine bildbasierte Anomalieerkennung an. Trotz erheblicher Fortschritte versagen bestehende Modelle oder zeigen unter der sogenannten „near-distribution“-Situation eine dramatische Leistungsabnahme, bei der sich normale und anomale Beispiele nur geringfügig unterscheiden. Zunächst zeigen wir, dass bestehende Ansätze im near-distribution-Setting eine Leistungsabnahme von bis zu 20 % aufweisen. Anschließend schlagen wir vor, ein scorebasiertes generatives Modell einzusetzen, um synthetische anomale Daten im near-distribution-Bereich zu erzeugen. Anschließend wird unser Modell an diesen synthetischen Daten feinabgestimmt, um sie von normalen Beispielen zu unterscheiden. Wir führen eine quantitative sowie qualitative Bewertung dieser Strategie durch und vergleichen die Ergebnisse mit einer Vielzahl von GAN-basierten Modellen. Die Wirksamkeit unseres Ansatzes sowohl für die near-distribution- als auch für die herkömmliche Anomalieerkennung wird anhand umfangreicher Experimente auf Datensätzen aus unterschiedlichen Anwendungsbereichen wie medizinische Bilder, Objektklassifikation und Qualitätskontrolle evaluiert. Dies zeigt, dass unsere Methode deutlich über bestehende Modelle hinausgeht und die Leistungslücke zwischen near-distribution- und Standard-Anomalieerkennung konsistent verringert. Der Quellcode ist unter https://github.com/rohban-lab/FITYMI verfügbar.