HyperAIHyperAI
vor 11 Tagen

Kontrastives Training zur Verbesserung der Detektion von außerhalb der Verteilung liegenden Daten

Jim Winkens, Rudy Bunel, Abhijit Guha Roy, Robert Stanforth, Vivek Natarajan, Joseph R. Ledsam, Patricia MacWilliams, Pushmeet Kohli, Alan Karthikesalingam, Simon Kohl, Taylan Cemgil, S. M. Ali Eslami, Olaf Ronneberger
Kontrastives Training zur Verbesserung der Detektion von außerhalb der Verteilung liegenden Daten
Abstract

Die zuverlässige Erkennung von außerhalb der Verteilung liegenden (out-of-distribution, OOD) Eingaben wird zunehmend als Voraussetzung für die praktische Anwendung von maschinellen Lernsystemen erkannt. In diesem Artikel wird der Einsatz von Kontrastiv-Training zur Verbesserung der OOD-Erkennung vorgeschlagen und untersucht. Im Gegensatz zu etablierten Ansätzen zur OOD-Erkennung benötigt unser Verfahren keine explizit als OOD gekennzeichneten Beispiele, die in der Praxis oft schwer zu beschaffen sind. In umfangreichen Experimenten zeigen wir, dass Kontrastiv-Training die Leistung der OOD-Erkennung auf mehreren gängigen Benchmarks erheblich steigert. Durch die Einführung und Anwendung des Confusion Log Probability (CLP)-Scores, der die Schwierigkeit der OOD-Erkennung durch die Erfassung der Ähnlichkeit zwischen Inlier- und Outlier-Datensätzen quantifiziert, zeigen wir, dass unsere Methode insbesondere die Leistung in den „near OOD“-Klassen verbessert – einem besonders herausfordernden Szenario für frühere Methoden.

Kontrastives Training zur Verbesserung der Detektion von außerhalb der Verteilung liegenden Daten | Neueste Forschungsarbeiten | HyperAI