HyperAIHyperAI
il y a 9 jours

Apprentissage de caractéristiques invariantes pour la classification longue-biaisée généralisée

Kaihua Tang, Mingyuan Tao, Jiaxin Qi, Zhenguang Liu, Hanwang Zhang
Apprentissage de caractéristiques invariantes pour la classification longue-biaisée généralisée
Résumé

Les méthodes existantes de classification longue-queue (LT) se concentrent uniquement sur le déséquilibre entre les classes, où les classes « tête » disposent de plus d’échantillons que les classes « queue », tout en ignorant le déséquilibre au niveau des attributs. En réalité, même si les classes sont équilibrées, les échantillons au sein de chaque classe peuvent encore présenter une distribution longue-queue en raison des variations d’attributs. Notons que ce dernier type de déséquilibre est fondamentalement plus répandu et plus difficile à traiter que le premier, car les attributs sont non seulement implicites dans la plupart des jeux de données, mais aussi combinaisonnellement complexes, rendant leur équilibrage prohibitivement coûteux. Ainsi, nous introduisons un nouveau problème de recherche : la classification longue-queue généralisée (GLT), visant à prendre en compte conjointement ces deux formes de déséquilibre. Par « généralisée », nous entendons qu’une méthode GLT doit naturellement résoudre le problème traditionnel de LT, mais non l’inverse. Il n’est pas surprenant que nous constations que la plupart des méthodes classiques de LT se dégradent sur nos deux nouveaux benchmarks proposés : ImageNet-GLT et MSCOCO-GLT. Nous soutenons que cela s’explique par le fait qu’elles sur-optimisent l’ajustement de la distribution des classes tout en négligeant l’apprentissage de caractéristiques invariantes aux attributs. À cet effet, nous proposons une méthode d’apprentissage de caractéristiques invariantes (IFL), qui constitue la première base solide pour la GLT. L’IFL identifie d’abord des environnements présentant des distributions intra-classe divergentes à partir des prédictions imparfaites, puis apprend des caractéristiques invariantes à travers ces environnements. De manière prometteuse, en tant que squelette amélioré pour les caractéristiques, IFL améliore l’ensemble des approches existantes de LT : rééquilibrage à une ou deux étapes, augmentation de données et ensemble de modèles. Les codes et les benchmarks sont disponibles sur GitHub : https://github.com/KaihuaTang/Generalized-Long-Tailed-Benchmarks.pytorch