Transformation Learning zur Erkennung von außerhalb der Verteilung liegender Daten

Die Erkennung von außerhalb der Verteilung liegenden (out-of-distribution, OOD) Proben spielt eine zentrale Rolle in offenen Weltanwendungen und sicherheitskritischen Systemen wie autonomen Fahrzeugen oder der medizinischen Diagnostik. In jüngster Zeit haben selbstüberwachte Lernverfahren zur Darstellungserzeugung (beispielsweise mittels kontrastivem Lernen und Vorhersageaufgaben) gezeigt, dass sie die OOD-Erkennung effektiv verbessern können. Ein wesentliches Problem dieser Ansätze liegt jedoch in der Wahl der Verschiebungsoperationen und der Vorhersageaufgaben, die jeweils von der Verteilung der Trainingsdaten abhängen. In diesem Paper stellen wir einen einfachen Rahmen vor, der ein Lernsetting für Verschiebungsoperationen nutzt, um mehrere verschobene Darstellungen des Trainingsdatensatzes zu erlernen, um die OOD-Erkennung zu verbessern. Um das Problem der Auswahl optimaler Verschiebungsoperationen und Vorhersageaufgaben zu lösen, schlagen wir eine einfache Mechanik vor, die diese Operationen automatisch auswählt und deren Einfluss auf die Darstellungserzeugung moduliert – ohne dass hierfür OOD-Trainingsproben erforderlich sind. In umfangreichen Experimenten zeigen wir, dass unser einfacher Rahmen state-of-the-art OOD-Erkennungsmodelle auf mehreren Bild-Datensätzen übertrifft. Zudem charakterisieren wir Kriterien für einen wünschenswerten OOD-Detektor in realen Anwendungen und demonstrieren die Wirksamkeit unserer vorgeschlagenen Methode gegenüber aktuellen state-of-the-art Ansätzen zur OOD-Erkennung.