MEEG و AT-DGNN: تحسين التعرف على العواطف من خلال التسجيلات الكهروenceفية للدماغ باستخدام الموسيقى والتعلم القائم على الرسم البياني

نقدم مجموعة البيانات MEEG، وهي مجموعة متعددة الوسائط لتسجيلات النشاط الكهروضوئي للمخ (EEG) المحفزة بالموسيقى والمصممة لتقاطع الاستجابات العاطفية لمثيرات موسيقية متنوعة عبر مستويات مختلفة من القيمة العاطفية والتحفيز. تساعد هذه المجموعة العامة في فحص عميق أنماط الموجات الدماغية في سياقات الموسيقى، وتوفير أساس قوي لدراسة طوبولوجيا شبكة الدماغ أثناء معالجة المشاعر. باستخدام مجموعة البيانات MEEG، نقدم إطارًا جديدًا للتمييز العاطفي القائم على التسجيلات الكهروضوئية للمخ يُعرف بـ "المتعلم الزمني القائم على الانتباه مع الشبكة العصبية الرسمية الديناميكية" (AT-DGNN). يجمع هذا النموذج بين آلية الانتباه وشبكة عصبية رسمية ديناميكية (DGNN) لتقاطع الديناميكيات المعقدة للنشاط الكهروضوئي للمخ. يصل AT-DGNN إلى أداء رائد في مجاله (SOTA) بمعدل دقة يبلغ 83.74% في التمييز بين مستويات التحفيز و86.01% في التمييز بين مستويات القيمة العاطفية، مما يجعله أفضل من الأساليب الرائدة الحالية (SOTA). تؤكد التحليل المقارن مع مجموعات بيانات تقليدية مثل DEAP فعالية النموذج وتعزز قوة الموسيقى كمثير عاطفي. يطور هذا البحث منهجية التعلم القائمة على الرسوم البيانية في واجهات الدماغ-الكمبيوتر (BCI)، مما يحسن بشكل كبير دقة التمييز العاطفي القائم على تسجيلات النشاط الكهروضوئي للمخ. يمكن الوصول إلى مجموعة البيانات MEEG والكود المصدر علنًا عبر الرابط: https://github.com/xmh1011/AT-DGNN.