HyperAIHyperAI
vor 12 Tagen

Aufbau von Wortrepräsentationen durch mehrstufige Kontextintegration für die ERC-Aufgabe

{Nguyen Minh Le, Matheny Blake, Phuong Minh Nguyen, Jieying Xue}
Abstract

Die Erkennung von Emotionen in Gesprächen (ERC) hat in letzter Zeit zunehmend an Aufmerksamkeit gewonnen, da sie sich durch eine bemerkenswerte Anpassungsfähigkeit auszeichnet – nämlich die Vorhersage der Stimmungsbezeichnung für jede Äußerung anhand eines Gesprächs als Kontext. Um die Emotion einer zentralen Aussage zu identifizieren, ist es entscheidend, deren Bedeutung in Verbindung mit kontextueller Information zu modellieren. In zahlreichen jüngeren Studien wurde daher der Fokus auf die Erfassung verschiedener Kontexttypen als unterstützende Information gelegt, die auf unterschiedliche Weise integriert wurden: lokale und globale Kontexte oder auf der Sprecher-Ebene durch intra-sprecherliche und inter-sprecherliche Integration. Allerdings wurde die Bedeutung von Wortrepräsentationen nach der Kontextintegration bisher noch nicht ausreichend untersucht, obwohl auch Wortinformationen entscheidend sind, um die Emotionen eines Sprechers im Gespräch angemessen widerzuspiegeln. Daher untersuchen wir in diesem Werk den Einfluss der Akkumulation von Wortvektordarstellungen auf die Satzmodellierung, die mit mehrstufiger kontextueller Integration verbunden ist. Dazu stellen wir eine effektive Methode zur Satzmodellierung für ERC-Aufgaben vor und erzielen wettbewerbsfähige, state-of-the-art-Ergebnisse auf vier weit verbreiteten Benchmark-Datensätzen: Iemocap, MELD, EmoryNLP und DailyDialog. Der Quellcode ist über folgenden Link zugänglich: github.com/yingjie7/per_erc/tree/AccumWR.