Modèle de langage masqué enrichi par des connaissances pour la détection de positionnement

La détection de l’orientation (stance) sur Twitter est particulièrement difficile en raison de la brièveté de chaque tweet, de l’innovation continue de nouveaux termes et hashtags, ainsi que de la déviation des structures syntaxiques par rapport au prose standard. Les modèles linguistiques affinés à l’aide de données à grande échelle spécifiques au domaine se sont révélés être l’état de l’art pour de nombreuses tâches de traitement du langage naturel (NLP), y compris la détection de stance. Dans cet article, nous proposons une nouvelle méthode d’affinage basée sur BERT, qui améliore le modèle de langage masqué pour la détection de stance. Au lieu d’un masquage aléatoire des tokens, nous proposons d’utiliser un rapport de log-odds pondéré afin d’identifier les mots présentant une forte capacité à distinguer les orientations, puis de modéliser un mécanisme d’attention qui se concentre sur ces mots. Nous démontrons que notre approche proposée surpasse l’état de l’art en matière de détection de stance sur des données Twitter relatives à l’élection présidentielle américaine de 2020.