HyperAI

Generalisierung Außerhalb Der Verteilung

Die Out-of-Distribution-Generalisierung (OOD-Generalisierung) zielt darauf ab, das Problem der Modellgeneralisierungsfähigkeit zu lösen, wenn die Verteilung der Trainingsdaten nicht mit der Verteilung der Testdaten übereinstimmt. Der Schwerpunkt liegt darauf, wie das Modell auch bei unbekannter oder unsichtbarer Datenverteilung eine gute Leistung und Stabilität aufrechterhalten kann.

Bei traditionellen Machine-Learning-Aufgaben wird üblicherweise davon ausgegangen, dass Trainingsdaten und Testdaten aus derselben Verteilung stammen (unabhängig und identisch verteilt, iid). In realen Anwendungen trifft diese Annahme jedoch häufig nicht zu. Beispielsweise können die Trainingsdaten aus einer bestimmten Umgebung oder unter bestimmten Bedingungen stammen, während die Testdaten aus einer völlig anderen Umgebung stammen können. Dieser Unterschied in der Verteilung kann dazu führen, dass die Leistung des Modells bei den Testdaten erheblich nachlässt. Das Ziel der Out-of-Distribution-Generalisierung besteht darin, dieses Problem der Verteilungsverschiebung zu lösen, sodass sich das Modell an unbekannte Datenverteilungen anpassen und diese verallgemeinern kann.