تمثيلات لغوية متعددة الوسائط غير مراقبة باستخدام مُشفّرات تلقائية تلافيفية

تحليل اللغة متعددة الوسائط هو مجال بحثي يتسم بالتعقيد، نظرًا لارتباطه بمتطلبين رئيسيين: دمج الوسائط المختلفة وفهم المعلومات الزمنية. خلال السنوات الأخيرة، تم اقتراح العديد من الدراسات في هذا المجال، وتركز معظمها على التعلم المُوجَّه في المهام اللاحقة. في هذه الورقة، نقترح استخلاص تمثيلات لغوية متعددة الوسائط غير مُوجَّهة، تكون عالمية ويمكن تطبيقها على مهام متنوعة. من أجل تحقيق هذا الهدف، نقوم بتحويل التسلسلات متعددة الوسائط المُتماثلة على مستوى الكلمات إلى مصفوفات ثنائية الأبعاد، ثم نستخدم مُشفِّرات التحويل التلافيفي (Convolutional Autoencoders) لاستخلاص التمثيلات (الإدخالات) من خلال دمج عدة مجموعات بيانات. تُظهر التجارب الواسعة في تحليل المشاعر (MOSEI) وتحديد المشاعر (IEMOCAP) أن التمثيلات المستخرجة يمكنها تحقيق أداءً قريبًا من الحد الأقصى المُحقَّق حاليًا باستخدام خوارزمية الانحدار اللوجستي فقط في التصنيف اللاحق. كما يُظهر البحث أن طريقة العمل لدينا خفيفة جدًا من حيث الحجم، ويمكن تعميمها بسهولة على مهام أخرى وبيانات غير مُشاهدَة، مع انخفاض طفيف في الأداء وعدد تقريبًا متساوٍ من المعاملات. تم إتاحة النماذج المُقترحة لتمثيلات اللغة متعددة الوسائط مفتوحة المصدر، وسوف تُسهم في تعزيز قابلية تطبيق تحليل اللغة متعددة الوسائط.