شبكات الانتباه الموديولية العميقة لأسئلة الصور والإجابة عليها

الإجابة على الأسئلة البصرية (VQA) تتطلب فهمًا دقيقًا ومتناسقًا للمحتوى البصري للصور والمحتوى النصي للأسئلة في آن واحد. لذلك، فإن تصميم نموذج `الانتباه المشترك' (co-attention) فعال لربط الكلمات الرئيسية في الأسئلة بالأشياء الرئيسية في الصور هو أمر محوري لأداء VQA. حتى الآن، تم تحقيق معظم المحاولات الناجحة في تعلم الانتباه المشترك باستخدام نماذج سطحية، بينما تظهر النماذج العميقة للانتباه المشترك تحسنًا قليلًا مقارنة بنظيراتها السطحية. في هذا البحث، نقترح شبكة انتباه مشترك وحدوية عميقة (MCAN) تتكون من طبقات انتباه مشترك وحدوي (MCA) متراصة بعمق. تقوم كل طبقة MCA بنمذجة الانتباه الذاتي للأسئلة والصور، بالإضافة إلى الانتباه الموجه للصور بشكل مشترك باستخدام تركيب وحدوي من وحدتين أساسيتين للانتباه. نقيم الشبكة MCAN كمياً وكيفياً على مجموعة البيانات المرجعية VQA-v2 ونقوم بدراستها بشكل مكثف لاستكشاف أسباب فعاليتها. تُظهر النتائج التجريبية أن الشبكة MCAN تتفوق بشكل كبير على أفضل ما كان معروفًا سابقًا. يحقق أفضل نموذج واحد لدينا دقة إجمالية تبلغ 70.63٪ على مجموعة الاختبار التنموية (test-dev set). الرمز البرمجي متاح على https://github.com/MILVLG/mcan-vqa.