Apprentissage contrastif supervisé ciblé pour la reconnaissance à distribution longue

Les données du monde réel présentent souvent des distributions à queue longue accompagnées d’un déséquilibre important entre les classes, dans lesquelles les classes majoritaires peuvent dominer le processus d’entraînement et altérer les frontières de décision des classes minoritaires. Récemment, des chercheurs ont exploré le potentiel de l’apprentissage contrastif supervisé pour la reconnaissance dans des scénarios à queue longue, et ont démontré qu’il permet d’obtenir des gains significatifs en performance. Dans ce travail, nous montrons que bien que l’apprentissage contrastif supervisé puisse améliorer les performances, les méthodes de référence précédentes souffrent d’une mauvaise uniformité induite par la distribution déséquilibrée des données. Cette mauvaise uniformité se traduit par une mauvaise séparabilité des échantillons appartenant aux classes minoritaires dans l’espace des caractéristiques. Pour remédier à ce problème, nous proposons une méthode appelée apprentissage contrastif supervisé ciblé (TSC), qui améliore l’uniformité de la distribution des caractéristiques sur une hypersphère. TSC génère d’abord un ensemble de cibles uniformément réparties sur une hypersphère, puis fait converger les caractéristiques des différentes classes vers ces cibles distinctes et uniformément réparties durant l’entraînement. Cette approche force toutes les classes, y compris les classes minoritaires, à maintenir une distribution uniforme dans l’espace des caractéristiques, améliore les frontières entre classes et permet une meilleure généralisation, même en présence de données à queue longue. Des expériences menées sur plusieurs jeux de données montrent que TSC atteint un état de l’art en matière de reconnaissance sur des données à queue longue.