Apprentissage Contrastif Double : Classification de Texte par Augmentation de Données Consciente des Étiquettes

L'apprentissage par contraste a obtenu des succès remarquables dans l'apprentissage de représentations via l'auto-supervision dans des contextes non supervisés. Cependant, adapter efficacement l'apprentissage par contraste aux tâches d'apprentissage supervisé reste un défi en pratique. Dans ce travail, nous introduisons un cadre d'apprentissage par contraste dual (DualCL) qui apprend simultanément les caractéristiques des échantillons d'entrée et les paramètres des classifieurs dans le même espace. Plus précisément, DualCL considère les paramètres des classifieurs comme des échantillons augmentés associés à différentes étiquettes, puis exploite l'apprentissage par contraste entre les échantillons d'entrée et les échantillons augmentés. Des études empiriques sur cinq jeux de données de référence pour la classification de texte et leurs versions à faibles ressources démontrent l'amélioration de la précision de classification et confirment la capacité de DualCL à apprendre des représentations discriminantes.