HyperAIHyperAI
il y a 16 jours

AliEdalat dans le cadre de la tâche 4 de SemEval-2022 : Détection du langage patronisant et condescendant à l’aide de modèles linguistiques ajustés (fine-tuned), BERT+BiGRU et modèles d’ensemble

{Behnam Bahrak, Yadollah Yaghoobzadeh, Ali Edalat}
AliEdalat dans le cadre de la tâche 4 de SemEval-2022 : Détection du langage patronisant et condescendant à l’aide de modèles linguistiques ajustés (fine-tuned), BERT+BiGRU et modèles d’ensemble
Résumé

Ce papier présente la méthodologie et les résultats de l’équipe AliEdalat pour la tâche SemEval-2022 numéro 4 : Détection du langage patronisant et condescendant (PCL). Cette tâche vise à détecter la présence de langage PCL ainsi que ses catégories, afin de prévenir toute forme de discrimination à l’encontre des communautés vulnérables. Nous avons adopté une approche par ensemble de trois modèles de base pour détecter la présence de PCL : BigBird fine-tuné, MPNet fine-tuné et BERT+BiGRU. Cependant, le modèle d’ensemble présente des performances inférieures à celles du modèle de base, en raison d’un surapprentissage, atteignant un score F1 de 0,3031. Nous proposons une autre solution pour corriger les limites du modèle soumis. Plutôt que de traiter la détection du PCL de manière globale, nous considérons chaque catégorie de PCL de manière indépendante. Pour chaque catégorie, nous agissons comme un détecteur de PCL spécifique. Au lieu de BERT+BiGRU, nous utilisons dans nos modèles un RoBERTa fine-tuné. Dans la détection des catégories de PCL, notre modèle surpasse le modèle de base, avec un score F1 de 0,2531. Nous présentons également de nouveaux modèles pour la détection de deux catégories spécifiques de PCL, qui surpassent les modèles initialement soumis.

AliEdalat dans le cadre de la tâche 4 de SemEval-2022 : Détection du langage patronisant et condescendant à l’aide de modèles linguistiques ajustés (fine-tuned), BERT+BiGRU et modèles d’ensemble | Articles de recherche récents | HyperAI