HyperAI

Außerhalb Der Verteilung

Die Out-of-Distribution-Erkennung (OOD) ist eine wichtige Forschungsrichtung im Bereich des maschinellen Lernens, bei der der Schwerpunkt auf der Identifizierung von Datenproben liegt, die während der Modelltrainingsphase nicht abgedeckt werden. Solche Erkennungstechniken sind für die Verbesserung der Robustheit von Modellen von entscheidender Bedeutung, insbesondere wenn die Modelle auf neue Umgebungen treffen, die sich erheblich von den Trainingsdaten unterscheiden. Die zentrale Herausforderung bei der OOD-Erkennung besteht darin, dass das Modell in der Lage sein muss, bei unbekannten oder abnormalen Daten richtig zu reagieren, anstatt blinde Vorhersagen zu treffen. Diese unbekannten Stichproben können aus völlig anderen Verteilungen stammen oder andere Eigenschaften als die Trainingsdaten aufweisen, was eine gewisse Generalisierungsfähigkeit des Modells erfordert.

In der Praxis gibt es für die OOD-Erkennung eine große Bandbreite an Anwendungsszenarien, darunter unter anderem medizinische Diagnose, finanzielle Risikobewertung, autonomes Fahren usw. In diesen Bereichen können die Entscheidungen des Modells erhebliche Konsequenzen haben. Daher ist die Fähigkeit zur genauen Identifizierung und Handhabung von OOD-Proben besonders wichtig. Beispielsweise kann das Modell bei der medizinischen Diagnose auf seltene Fälle stoßen, die in den Trainingsdaten möglicherweise nie vorkommen, und eine fehlerhafte Identifizierung dieser OOD-Proben kann zu einer falschen Diagnose führen.

Die Shanghai Jiao Tong University und das Alibaba Tongyi Laboratory veröffentlichten 2024 ein Papier mit dem Titel „Einbettung der Trajektorie zur Erkennung von Abweichungen außerhalb der Verteilung in mathematisches Denken", das von NeurIPS 2024 angenommen wurde, ist das erste Forschungsergebnis zur Erkennung von Abweichungen außerhalb der Verteilung in Szenarien des mathematischen Denkens.