HyperAIHyperAI
il y a 11 jours

Perte asymétrique pour la classification multi-étiquettes

Emanuel Ben-Baruch, Tal Ridnik, Nadav Zamir, Asaf Noy, Itamar Friedman, Matan Protter, Lihi Zelnik-Manor
Perte asymétrique pour la classification multi-étiquettes
Résumé

Dans un cadre typique de classification multi-étiquettes, une image contient en moyenne un petit nombre d'étiquettes positives et un grand nombre d'étiquettes négatives. Ce déséquilibre entre positives et négatives domine le processus d'optimisation, pouvant entraîner une sous-estimation des gradients provenant des étiquettes positives pendant l'entraînement, ce qui se traduit par une précision médiocre. Dans cet article, nous proposons une nouvelle fonction de perte asymétrique (« ASL »), qui traite différemment les échantillons positifs et négatifs. Cette perte permet de réduire dynamiquement le poids des échantillons négatifs faciles, d'appliquer un seuil rigide aux échantillons négatifs simples, tout en éliminant éventuellement les échantillons potentiellement mal étiquetés. Nous montrons comment ASL permet d'équilibrer les probabilités des différents échantillons, et comment cet équilibre se traduit par de meilleurs scores mAP. Grâce à ASL, nous atteignons des résultats de pointe sur plusieurs jeux de données populaires en classification multi-étiquettes : MS-COCO, Pascal-VOC, NUS-WIDE et Open Images. Nous démontrons également la faisabilité d'ASL pour d'autres tâches, telles que la classification mono-étiquette et la détection d'objets. ASL est efficace, facile à implémenter, et n'augmente ni le temps d'entraînement ni la complexité.L'implémentation est disponible à l'adresse : https://github.com/Alibaba-MIIL/ASL.

Perte asymétrique pour la classification multi-étiquettes | Articles de recherche récents | HyperAI