Kontrastives Training zur Verbesserung der Detektion von außerhalb der Verteilung liegenden Daten

Die zuverlässige Erkennung von außerhalb der Verteilung liegenden (out-of-distribution, OOD) Eingaben wird zunehmend als Voraussetzung für die praktische Anwendung von maschinellen Lernsystemen erkannt. In diesem Artikel wird der Einsatz von Kontrastiv-Training zur Verbesserung der OOD-Erkennung vorgeschlagen und untersucht. Im Gegensatz zu etablierten Ansätzen zur OOD-Erkennung benötigt unser Verfahren keine explizit als OOD gekennzeichneten Beispiele, die in der Praxis oft schwer zu beschaffen sind. In umfangreichen Experimenten zeigen wir, dass Kontrastiv-Training die Leistung der OOD-Erkennung auf mehreren gängigen Benchmarks erheblich steigert. Durch die Einführung und Anwendung des Confusion Log Probability (CLP)-Scores, der die Schwierigkeit der OOD-Erkennung durch die Erfassung der Ähnlichkeit zwischen Inlier- und Outlier-Datensätzen quantifiziert, zeigen wir, dass unsere Methode insbesondere die Leistung in den „near OOD“-Klassen verbessert – einem besonders herausfordernden Szenario für frühere Methoden.