HyperAIHyperAI

Command Palette

Search for a command to run...

Généralisation Hors Distribution

Date

il y a un an

La généralisation hors distribution (généralisation OOD) vise à résoudre le problème de la capacité de généralisation du modèle lorsque la distribution des données d'apprentissage est incompatible avec la distribution des données de test. Il se concentre sur la manière de permettre au modèle de maintenir de bonnes performances et une bonne stabilité face à une distribution de données inconnue ou invisible.

Dans les tâches d’apprentissage automatique traditionnelles, on suppose généralement que les données d’entraînement et les données de test proviennent de la même distribution (indépendante et identiquement distribuée, iid). Cependant, dans les applications du monde réel, cette hypothèse n’est souvent pas vérifiée. Par exemple, les données de formation peuvent provenir d’un environnement ou de conditions spécifiques, tandis que les données de test peuvent provenir d’un environnement complètement différent. Cette différence de distribution peut entraîner une baisse significative des performances du modèle sur les données de test. L’objectif de la généralisation hors distribution est de résoudre ce problème de décalage de distribution afin que le modèle puisse s’adapter et se généraliser à des distributions de données invisibles.

Build AI with AI

From idea to launch — accelerate your AI development with free AI co-coding, out-of-the-box environment and best price of GPUs.

AI Co-coding
Ready-to-use GPUs
Best Pricing

HyperAI Newsletters

Abonnez-vous à nos dernières mises à jour
Nous vous enverrons les dernières mises à jour de la semaine dans votre boîte de réception à neuf heures chaque lundi matin
Propulsé par MailChimp
Généralisation Hors Distribution | Wiki | HyperAI