Command Palette
Search for a command to run...
TeamUNCC@LT-EDI-EACL2021 : Détection de discours d’espoir par apprentissage par transfert avec des Transformers
{Samira Shaikh Erfan Al-Hossami Khyati Mahajan}

Résumé
Dans cet article, nous présentons notre approche visant à exploiter des modèles pré-entraînés pour la détection de discours d’espoir. Nous avons participé à la tâche 2 : Détection de discours d’espoir pour l’égalité, la diversité et l’inclusion (LT-EDI-2021 @ EACL2021). L’objectif de cette tâche consiste à prédire la présence de discours d’espoir, ainsi que celle d’échantillons appartenant à des langues différentes dans le jeu de données. Nous décrivons notre méthode d’ajustement fin (fine-tuning) de RoBERTa pour la détection de discours d’espoir en anglais, ainsi que notre approche d’ajustement fin de XLM-RoBERTa pour la détection de discours d’espoir en tamoul et en malayalam, deux langues indicques à faibles ressources. Nous démontrons les performances de notre approche dans la classification des textes en discours d’espoir, non-discours d’espoir et non-langue. Notre méthode a obtenu le premier rang en anglais (F1 = 0,93), le premier rang en tamoul (F1 = 0,61) et le troisième rang en malayalam (F1 = 0,83).
Benchmarks
| Benchmark | Méthodologie | Métriques |
|---|---|---|
| hope-speech-detection-for-english-on-hopeedi | RoBERTa | Weighted Average F1-score: 0.93 |
| hope-speech-detection-for-malayalam-on | XLM-RoBERTa | Weighted Average F1-score: 0.87 |
| hope-speech-detection-for-tamil-on-hopeedi | XLM-RoBERTa | Weighted Average F1-score: 0.60 |
| hope-speech-detection-on-hopeedi | RoBERTa | Weighted Average F1-score: 0.93 |
Construire l'IA avec l'IA
De l'idée au lancement — accélérez votre développement IA avec du co-codage IA gratuit, un environnement prêt à l'emploi et les meilleurs prix GPU.