Perte Équilibrée par Caractéristiques pour la Reconnaissance Visuelle à Longue Queue

Les réseaux de neurones profonds souffrent fréquemment d’un dégradé de performance lorsqu’ils sont entraînés sur des données à distribution longue-queue, car plusieurs classes majoritaires dominent l’entraînement, entraînant ainsi un modèle biaisé. Des études récentes ont consacré d’importants efforts à résoudre ce problème en extrayant de bonnes représentations depuis l’espace des données, mais peu d’entre elles ont porté attention à l’impact de la norme des caractéristiques sur les résultats prédits. Dans ce travail, nous abordons donc le problème des données longue-queue depuis l’espace des caractéristiques et proposons une nouvelle fonction de perte, appelée feature-balanced loss. Plus précisément, nous encourageons des normes de caractéristiques plus élevées pour les classes de queue en leur fournissant des stimuli relativement plus forts. De plus, l’intensité de ces stimuli est progressivement augmentée selon une stratégie d’apprentissage progressif (curriculum learning), ce qui améliore la généralisation des classes de queue tout en préservant les performances des classes de tête. Des expériences étendues sur plusieurs benchmarks populaires de reconnaissance à distribution longue-queue démontrent que la feature-balanced loss atteint des gains de performance supérieurs par rapport aux méthodes de pointe actuelles.