المسار المُحَوَّل البصري-النصي للتحليل النصي لمقاطع الفيديو

الفهم المشترك للرؤية واللغة الطبيعية يُعدّ مشكلة صعبة ذات تطبيقات واسعة في الذكاء الاصطناعي. في هذا العمل، نركّز على دمج الفيديو والنص من أجل مهمة تقسيم الفيديو حسب الممثل والفعل بناءً على جملة نصية. نقترح منهجية تعتمد على الكبسولات (capsules) تقوم بتحديد الموضع على مستوى البكسلات استنادًا إلى استعلام لغوي طبيعي يصف الممثل المطلوب. نُشَكّل كلًا من المدخلات الفيديو والنصية على شكل كبسولات، مما يوفر تمثيلًا أكثر فعالية مقارنةً بالميزات التقليدية المستندة إلى التحويلات التلافيفية (convolution-based features). كما يسمح لنا الآلية الجديدة للإرشاد البصري-النصي بدمج الكبسولات المرئية والنصية لتمكين تحديد دقيق للممثل والفعل. أما الأعمال السابقة المتعلقة بتحديد الممثل والفعل، فهي تركز في الغالب على التحديد في إطار واحد فقط، وليس على الفيديو بأكمله. على عكس هذه الأعمال، نقترح إجراء التحديد على جميع الإطارات في الفيديو. وللتحقق من إمكانات الشبكة المقترحة في تحديد الممثل والفعل في الفيديو، قمنا بتوسيع مجموعة بيانات الممثل والفعل الموجودة مسبقًا (A2D) بإضافة تسميات لجميع الإطارات. وتُظهر النتائج التجريبية فعالية شبكتنا الكبسولية في تحديد الممثل والفعل بناءً على النص في الفيديو. كما تُحسّن الطريقة المقترحة من أداء أفضل النماذج الحالية في مجال التحديد القائم على إطار واحد.