تجميع النص الشفاف للتحديد الصوتي للصورة

مُحفَّزين بالتقنيات التقليدية لتقسيم الصور، نطوّر نسخة مدعومة بشبكة عصبية عميقة (DNN) لتلبية متطلبات التحديد بالإشارة. يعتمد النهج المقترح على شبكة عصبية متكررة مُحَوَّلة (ConvRNN) تقوم بمعالجة تدريجية من الأعلى إلى الأسفل لمؤشرات التقسيم من الأسفل إلى الأعلى. مع إعطاء تعبير لغوي طبيعي، يتعلم نهجنا تقييم مدى صلة كل بكسل به، ويُنتج خريطة حرارية تُسمى "خريطة تفاعلية شفافة للنص على مستوى البكسل" (STEP)، والتي تكشف مؤشرات التقسيم على مستوى البكسل من خلال التمثيل البصري-النصي المُتعلم. تقوم شبكة ConvRNN بعملية تقريب من الأعلى إلى الأسفل من خلال تحويل خريطة STEP إلى خريطة مُحسَّنة، مع التوقع بأن تتحسن النتائج من خلال تدريب الشبكة باستخدام خسارة تصنيف مستمدة من البيانات الحقيقية (Ground Truth). وباستخدام الخريطة المُحسَّنة، نُحدِّث تمثيل النص للتعبير الإشاري من خلال إعادة تقييم توزيع الانتباه، ثم نحسب خريطة STEP جديدة لتكون الإدخال التالي لشبكة ConvRNN. وبفضل هذه التعلم التعاوني، يمكن للإطار أن يُنتج بشكل تدريجي ومتزامن التقسيم المطلوب بالإشارة وتوزيع انتباه معقول على الجملة الإشارية. يمتاز هذا النهج بالعمومية ولا يعتمد، مثلاً، على نتائج كشف الكائنات من نماذج DNN أخرى، مع تحقيق أداءً يُعدّ من أفضل الأداء في جميع مجموعات البيانات الأربعة التي تم اختبارها.