TeamUNCC@LT-EDI-EACL2021 : Détection de discours d’espoir par apprentissage par transfert avec des Transformers

Dans cet article, nous présentons notre approche visant à exploiter des modèles pré-entraînés pour la détection de discours d’espoir. Nous avons participé à la tâche 2 : Détection de discours d’espoir pour l’égalité, la diversité et l’inclusion (LT-EDI-2021 @ EACL2021). L’objectif de cette tâche consiste à prédire la présence de discours d’espoir, ainsi que celle d’échantillons appartenant à des langues différentes dans le jeu de données. Nous décrivons notre méthode d’ajustement fin (fine-tuning) de RoBERTa pour la détection de discours d’espoir en anglais, ainsi que notre approche d’ajustement fin de XLM-RoBERTa pour la détection de discours d’espoir en tamoul et en malayalam, deux langues indicques à faibles ressources. Nous démontrons les performances de notre approche dans la classification des textes en discours d’espoir, non-discours d’espoir et non-langue. Notre méthode a obtenu le premier rang en anglais (F1 = 0,93), le premier rang en tamoul (F1 = 0,61) et le troisième rang en malayalam (F1 = 0,83).