MEEG und AT-DGNN: Verbesserung der EEG-Emotionserkennung durch Musik-Einführung und graphbasiertes Lernen

Wir präsentieren den MEEG-Datensatz, eine multimodale Sammlung von musikinduzierten Elektroenzephalogramm-(EEG)-Aufnahmen, die entwickelt wurde, um emotionale Reaktionen auf verschiedene musikalische Stimuli bei unterschiedlichen Valenz- und Aktivierungsebenen zu erfassen. Dieser öffentliche Datensatz ermöglicht eine detaillierte Untersuchung von Hirnwellenmustern in musikalischen Kontexten und bietet eine solide Grundlage für die Studie der Hirnnetzwerktopologie während der Emotionsverarbeitung. Unter Verwendung des MEEG-Datensatzes führen wir das Aufmerksamkeitsbasierte Zeitliche Lernmodell mit dynamischem Graph-Neural-Netzwerk (AT-DGNN) ein, einen neuen Ansatz zur Emotionserkennung auf Basis von EEG. Dieses Modell kombiniert ein Aufmerksamkeitsmechanismus mit einem dynamischen Graph-Neural-Netzwerk (DGNN), um komplexe EEG-Dynamiken zu erfassen. Das AT-DGNN erzielt den aktuellen Stand der Technik (SOTA) mit einer Genauigkeit von 83,74 % bei der Aktivierungs-Erkennung und 86,01 % bei der Valenz-Erkennung, was bestehende SOTA-Methoden übertrifft. Eine vergleichende Analyse mit traditionellen Datensätzen wie dem DEAP bestätigt weiterhin die Effektivität des Modells und unterstreicht die Wirkkraft der Musik als emotionale Stimulanz. Diese Studie fördert die graphbasierte Lernmethode in Gehirn-Computer-Schnittstellen (BCI) und verbessert die Genauigkeit der EEG-basierten Emotionserkennung erheblich. Der MEEG-Datensatz und der Quellcode sind öffentlich verfügbar unter https://github.com/xmh1011/AT-DGNN.