Command Palette
Search for a command to run...
RODD: Ein selbstüberwachter Ansatz zur robusten Detektion von Außerhalb-Verteilung-Daten
RODD: Ein selbstüberwachter Ansatz zur robusten Detektion von Außerhalb-Verteilung-Daten
Umar Khalid Ashkan Esmaeili Nazmul Karim Nazanin Rahnavard
Zusammenfassung
Kürzliche Studien haben die Herausforderung der Erkennung und Ablehnung von außerhalb der Verteilung liegenden (OOD) Beispielen als zentrales Problem für die sichere Implementierung von Deep-Learning-(DL)-Modellen identifiziert. Es wird erwünscht, dass das DL-Modell nur dann hohe Konfidenz bezüglich der innerhalb der Verteilung liegenden (ID) Daten zeigt, was das zentrale Prinzip der OOD-Erkennung unterstreicht. In diesem Beitrag stellen wir eine einfache, jedoch wirksame verallgemeinerte Methode zur OOD-Erkennung vor, die unabhängig von OOD-Datensätzen ist. Unser Ansatz basiert auf der selbstüberwachten Merkmalslernung der Trainingsbeispiele, wobei die Embeddings in einem kompakten, niedrigdimensionalen Raum liegen. Angeregt durch jüngste Studien, die zeigen, dass selbstüberwachtes adversariales kontrastives Lernen das Modell robuster macht, zeigen wir empirisch, dass ein vortrainiertes Modell mit selbstüberwachtem kontrastivem Lernen eine bessere Grundlage für die ein-dimensionale Merkmalslernung im latente Raum bietet. Die in dieser Arbeit vorgeschlagene Methode, RODD genannt, erreicht auf einer umfassenden Reihe von Benchmark-Datensätzen eine überlegene Leistung im Vergleich zu aktuellen State-of-the-Art-Methoden bei OOD-Erkennungsaufgaben. Auf dem CIFAR-100-Benchmark erreicht RODD eine um 26,97 % niedrigere Falsch-Positiv-Rate (FPR@95) im Vergleich zu den besten bisherigen Ansätzen.