HyperAIHyperAI
il y a 15 jours

COGMEN : reconnaissance émotionnelle multimodale basée sur les GNN contextualisés

Abhinav Joshi, Ashwani Bhat, Ayush Jain, Atin Vikram Singh, Ashutosh Modi
COGMEN : reconnaissance émotionnelle multimodale basée sur les GNN contextualisés
Résumé

Les émotions constituent une composante intrinsèque des interactions humaines, et il est donc essentiel de développer des systèmes d’intelligence artificielle capables de comprendre et de reconnaître les émotions humaines. Lors d’une conversation impliquant plusieurs personnes, l’état émotionnel d’un individu est influencé par les énoncés des autres interlocuteurs ainsi que par son propre état émotionnel au fil des échanges. Dans cet article, nous proposons un système de reconnaissance émotionnelle multimodale basé sur un réseau neuronal de graphes contextualisés, dénommé COGMEN (COntextualized Graph Neural Network based Multimodal Emotion recognitioN). Ce système exploite à la fois les informations locales (c’est-à-dire les dépendances inter- et intra-parlants) et les informations globales (le contexte). L’architecture proposée repose sur un modèle de réseau neuronal de graphes (GNN) afin de modéliser les dépendances complexes — tant locales que globales — présentes dans une conversation. Notre modèle atteint des performances de pointe (SOTA) sur les jeux de données IEMOCAP et MOSEI. Des expériences d’ablation détaillées mettent en évidence l’importance cruciale de la modélisation des informations aux deux niveaux.

COGMEN : reconnaissance émotionnelle multimodale basée sur les GNN contextualisés | Articles de recherche récents | HyperAI