CoMPM : Modélisation du contexte par suivi de mémoire pré-entraînée de locuteur pour la reconnaissance d'émotions dans les conversations

À mesure que l’utilisation des machines interactives augmente, la reconnaissance des émotions dans les conversations (ERC) devient de plus en plus cruciale. Si les phrases générées par la machine expriment des émotions, des échanges plus humains et empathiques deviennent possibles. Étant donné que la reconnaissance des émotions dans une conversation est imprecise lorsqu’on ignore les énoncés précédents, de nombreuses études intègrent le contexte dialogique afin d’améliorer les performances. De récentes approches montrent une amélioration significative en combinant des connaissances externes intégrées dans des modules appris à partir de données structurées externes. Toutefois, l’accès à de telles données structurées est difficile dans les langues autres que l’anglais, ce qui limite leur extension à d’autres langues. À cet égard, nous exploitons un modèle linguistique pré-entraîné comme extracteur de connaissance externe afin d’extraire une mémoire pré-entraînée. Nous proposons CoMPM, une méthode qui combine la mémoire pré-entraînée de l’interlocuteur avec un modèle contextuel, et démontrons que cette mémoire pré-entraînée améliore significativement les performances du modèle contextuel. CoMPM atteint la première ou la deuxième place sur tous les jeux de données, se classant parmi les systèmes les plus performants parmi ceux qui ne s’appuient pas sur des données structurées. En outre, notre approche montre une capacité d’extension à d’autres langues, car elle ne nécessite pas de connaissances structurées, contrairement aux méthodes antérieures. Le code de notre travail est disponible sur GitHub (https://github.com/rungjoo/CoMPM).