Steigerung der Out-of-distribution-Detektion durch typische Merkmale

Die Erkennung von Daten außerhalb der Verteilung (Out-of-distribution, OOD) ist eine entscheidende Aufgabe, um die Zuverlässigkeit und Sicherheit tiefer neuronalen Netze in realen Anwendungen zu gewährleisten. Im Gegensatz zu den meisten vorherigen OOD-Erkennungsmethoden, die sich auf die Entwicklung von OOD-Scores oder die Einführung vielfältiger Ausreißerbeispiele zur Neutrainierung des Modells konzentrieren, untersuchen wir die Hindernisfaktoren bei der OOD-Erkennung aus der Perspektive der Typizität und betrachten den hochwahrscheinlichen Bereich der Merkmale des tiefen Modells als die typische Menge der Merkmale. Wir schlagen vor, die Merkmale in ihre typische Menge zu korrigieren und die OOD-Scores anhand dieser typischen Merkmale zu berechnen, um eine zuverlässige Unsicherheitsschätzung zu erreichen. Die Merkmalskorrektur kann als {Plug-and-Play}-Modul mit verschiedenen OOD-Scores implementiert werden. Wir evaluieren die Überlegenheit unseres Ansatzes sowohl auf dem üblicherweise verwendeten Benchmark (CIFAR) als auch auf dem anspruchsvolleren Benchmark mit hoher Auflösung und großem Labelraum (ImageNet). Insbesondere übertrifft unsere Methode state-of-the-art-Verfahren auf dem ImageNet-Benchmark bis zu 5,11 % im durchschnittlichen FPR95.