HyperAIHyperAI

Command Palette

Search for a command to run...

Generalisierung Außerhalb Der Verteilung

Date

vor einem Jahr

Die Out-of-Distribution-Generalisierung (OOD-Generalisierung) zielt darauf ab, das Problem der Modellgeneralisierungsfähigkeit zu lösen, wenn die Verteilung der Trainingsdaten nicht mit der Verteilung der Testdaten übereinstimmt. Der Schwerpunkt liegt darauf, wie das Modell auch bei unbekannter oder unsichtbarer Datenverteilung eine gute Leistung und Stabilität aufrechterhalten kann.

Bei traditionellen Machine-Learning-Aufgaben wird üblicherweise davon ausgegangen, dass Trainingsdaten und Testdaten aus derselben Verteilung stammen (unabhängig und identisch verteilt, iid). In realen Anwendungen trifft diese Annahme jedoch häufig nicht zu. Beispielsweise können die Trainingsdaten aus einer bestimmten Umgebung oder unter bestimmten Bedingungen stammen, während die Testdaten aus einer völlig anderen Umgebung stammen können. Dieser Unterschied in der Verteilung kann dazu führen, dass die Leistung des Modells bei den Testdaten erheblich nachlässt. Das Ziel der Out-of-Distribution-Generalisierung besteht darin, dieses Problem der Verteilungsverschiebung zu lösen, sodass sich das Modell an unbekannte Datenverteilungen anpassen und diese verallgemeinern kann.

Build AI with AI

From idea to launch — accelerate your AI development with free AI co-coding, out-of-the-box environment and best price of GPUs.

AI Co-coding
Ready-to-use GPUs
Best Pricing

HyperAI Newsletters

Abonnieren Sie unsere neuesten Updates
Wir werden die neuesten Updates der Woche in Ihren Posteingang liefern um neun Uhr jeden Montagmorgen
Unterstützt von MailChimp
Generalisierung Außerhalb Der Verteilung | Wiki | HyperAI