Intégration contextuelle multi-niveaux par accumulation de représentations de mots pour la tâche de ERC
La reconnaissance des émotions dans les conversations (ERC) suscite un intérêt croissant récemment en raison de sa grande adaptabilité, consistant à prédire l’étiquette émotionnelle de chaque énoncé à partir d’un contexte conversationnel donné. Pour identifier l’émotion d’un énoncé cible, il est essentiel de modéliser son sens en intégrant pleinement les informations contextuelles. De nombreuses études récentes se sont concentrées sur la capture de différents types de contexte comme information complémentaire, qu’elles intègrent de diverses manières : contextes locaux et globaux, ou au niveau des locuteurs par une intégration intra-locuteur et inter-locuteur. Toutefois, l’importance des représentations lexicales après intégration contextuelle n’a pas encore été suffisamment explorée, bien que l’information lexicale soit également fondamentale pour refléter les émotions des interlocuteurs au sein de la conversation. Dans ce travail, nous nous efforçons d’étudier l’impact de l’accumulation des représentations vectorielles des mots sur la modélisation des phrases enrichie par une intégration contextuelle multi-niveaux. À cette fin, nous proposons une méthode efficace pour la modélisation des phrases dans les tâches ERC, obtenant des résultats compétitifs et parmi les meilleurs à ce jour sur quatre jeux de données largement reconnus : Iemocap, MELD, EmoryNLP et DailyDialog. Le code source de notre travail est disponible à l’adresse suivante : github.com/yingjie7/per_erc/tree/AccumWR.