Command Palette
Search for a command to run...
Generalisierung Außerhalb Der Verteilung
Datum
Tags
Die Out-of-Distribution-Generalisierung (OOD-Generalisierung) zielt darauf ab, das Problem der Modellgeneralisierungsfähigkeit zu lösen, wenn die Verteilung der Trainingsdaten nicht mit der Verteilung der Testdaten übereinstimmt. Der Schwerpunkt liegt darauf, wie das Modell auch bei unbekannter oder unsichtbarer Datenverteilung eine gute Leistung und Stabilität aufrechterhalten kann.
Bei traditionellen Machine-Learning-Aufgaben wird üblicherweise davon ausgegangen, dass Trainingsdaten und Testdaten aus derselben Verteilung stammen (unabhängig und identisch verteilt, iid). In realen Anwendungen trifft diese Annahme jedoch häufig nicht zu. Beispielsweise können die Trainingsdaten aus einer bestimmten Umgebung oder unter bestimmten Bedingungen stammen, während die Testdaten aus einer völlig anderen Umgebung stammen können. Dieser Unterschied in der Verteilung kann dazu führen, dass die Leistung des Modells bei den Testdaten erheblich nachlässt. Das Ziel der Out-of-Distribution-Generalisierung besteht darin, dieses Problem der Verteilungsverschiebung zu lösen, sodass sich das Modell an unbekannte Datenverteilungen anpassen und diese verallgemeinern kann.
KI mit KI entwickeln
Von der Idee bis zum Start — beschleunigen Sie Ihre KI-Entwicklung mit kostenlosem KI-Co-Coding, sofort einsatzbereiter Umgebung und den besten GPU-Preisen.