HyperAI

Généralisation Hors Distribution

La généralisation hors distribution (généralisation OOD) vise à résoudre le problème de la capacité de généralisation du modèle lorsque la distribution des données d'apprentissage est incompatible avec la distribution des données de test. Il se concentre sur la manière de permettre au modèle de maintenir de bonnes performances et une bonne stabilité face à une distribution de données inconnue ou invisible.

Dans les tâches d’apprentissage automatique traditionnelles, on suppose généralement que les données d’entraînement et les données de test proviennent de la même distribution (indépendante et identiquement distribuée, iid). Cependant, dans les applications du monde réel, cette hypothèse n’est souvent pas vérifiée. Par exemple, les données de formation peuvent provenir d’un environnement ou de conditions spécifiques, tandis que les données de test peuvent provenir d’un environnement complètement différent. Cette différence de distribution peut entraîner une baisse significative des performances du modèle sur les données de test. L’objectif de la généralisation hors distribution est de résoudre ce problème de décalage de distribution afin que le modèle puisse s’adapter et se généraliser à des distributions de données invisibles.