Command Palette
Search for a command to run...
Kontrastives Training zur Verbesserung der Detektion von außerhalb der Verteilung liegenden Daten
Kontrastives Training zur Verbesserung der Detektion von außerhalb der Verteilung liegenden Daten
Zusammenfassung
Die zuverlässige Erkennung von außerhalb der Verteilung liegenden (out-of-distribution, OOD) Eingaben wird zunehmend als Voraussetzung für die praktische Anwendung von maschinellen Lernsystemen erkannt. In diesem Artikel wird der Einsatz von Kontrastiv-Training zur Verbesserung der OOD-Erkennung vorgeschlagen und untersucht. Im Gegensatz zu etablierten Ansätzen zur OOD-Erkennung benötigt unser Verfahren keine explizit als OOD gekennzeichneten Beispiele, die in der Praxis oft schwer zu beschaffen sind. In umfangreichen Experimenten zeigen wir, dass Kontrastiv-Training die Leistung der OOD-Erkennung auf mehreren gängigen Benchmarks erheblich steigert. Durch die Einführung und Anwendung des Confusion Log Probability (CLP)-Scores, der die Schwierigkeit der OOD-Erkennung durch die Erfassung der Ähnlichkeit zwischen Inlier- und Outlier-Datensätzen quantifiziert, zeigen wir, dass unsere Methode insbesondere die Leistung in den „near OOD“-Klassen verbessert – einem besonders herausfordernden Szenario für frühere Methoden.