HyperAIHyperAI
il y a 9 jours

Recalibrage postérieur pour des jeux de données déséquilibrés

Junjiao Tian, Yen-Cheng Liu, Nathan Glaser, Yen-Chang Hsu, Zsolt Kira
Recalibrage postérieur pour des jeux de données déséquilibrés
Résumé

Les réseaux de neurones peuvent se comporter de manière médiocre lorsque la distribution des étiquettes d'apprentissage est fortement déséquilibrée, ainsi que lorsque les données de test diffèrent de la distribution d'apprentissage. Afin de faire face au décalage dans la distribution des étiquettes de test, causé par ce déséquilibre, nous abordons le problème du point de vue d'un classificateur de Bayes optimal et dérivons une technique post-entraînement de rééquilibrage des a priori, pouvant être résolue par une optimisation basée sur la divergence de Kullback-Leibler (KL). Cette méthode permet de régler efficacement un hyperparamètre post-entraînement, flexible et adapté sur un ensemble de validation, afin de modifier de manière adéquate la marge du classificateur et ainsi contrer ce déséquilibre. Nous combinons ensuite cette approche avec des méthodes existantes de décalage de vraisemblance, en les réinterprétant depuis la même perspective bayésienne, et démontrons que notre méthode permet de traiter les deux problèmes de manière unifiée. L'algorithme résultant peut être facilement appliqué à des problèmes de classification probabiliste, indépendamment de l'architecture sous-jacente. Nos résultats sur six jeux de données différents et cinq architectures distinctes atteignent des performances de pointe, notamment sur des jeux de données déséquilibrés à grande échelle tels que iNaturalist pour la classification et Synthia pour la segmentation sémantique. Pour plus d'informations sur l'implémentation, veuillez consulter : https://github.com/GT-RIPL/UNO-IC.git.

Recalibrage postérieur pour des jeux de données déséquilibrés | Articles de recherche récents | HyperAI