HyperAIHyperAI
منذ 3 أشهر

مُؤشِّر التعبير بالتعاون المُحوِّل للفهم العام لكائنات الفيديو المرجعي

Jiajun Chen, Jiacheng Lin, Guojin Zhong, Haolong Fu, Ke Nai, Kailun Yang, Zhiyong Li
مُؤشِّر التعبير بالتعاون المُحوِّل للفهم العام لكائنات الفيديو المرجعي
الملخص

يُعدُّ التجزئة الصوتية المُوجهة للكائنات في الفيديو (A-VOS) وتجزئة الكائنات في الفيديو المرجعية (R-VOS) مهامَين مترابطتين للغاية، وهما تهدفان إلى تجزئة كائنات محددة من تسلسلات الفيديو وفقًا لتعليمات تعبيرية. ومع ذلك، نظرًا للتحديات المرتبطة بتمثيل المعلومات من مختلف الوسائط، يعاني الطرق الحالية من صعوبة تحقيق التوازن بين المرونة في التفاعل والدقة في التحديد المكاني. في هذا البحث، نعالج هذه المشكلة من زاويتين: التزامن بين الصوت والنص، والتفاعل العميق بين الوسائط الصوتية والنصية والبصرية. أولاً، نقترح معمارية عامة تُسمَّى "مُحَوِّل تعاون التعليمات التعبيرية"، والمعروف اختصارًا بـ EPCFormer. ثانيًا، نقترح آلية تسمى "التوافق التعبيري" (EA) لتمكين التزامن بين الصوت والنص. وتستفيد المعمارية المقترحة EPCFormer من حقيقة أن التعليمات الصوتية والنصية التي تشير إلى نفس الكائنات تكون معنوية متماثلة، وذلك باستخدام التعلم التبايني (contrastive learning) لكلتا النوعين من التعبيرات. ثم، لتمكين التفاعل العميق بين الوسائط الصوتية والنصية والبصرية، نقدّم وحدة تسمى "الانتباه التعبيري-البصري" (EVA). وباستغلال المعرفة المتعلقة بتجزئة كائنات الفيديو وفقًا للتعليمات التعبيرية، يمكن نقل المعرفة بسلاسة بين المهمتين من خلال استكشاف العناصر التكميلية بين النص والصوت. وتشير التجارب على معايير معروفة ومحفوظة إلى أن EPCFormer تحقق نتائج من الطراز الرائد في كلا المهمتين. وسيتم إتاحة الشفرة المصدرية للنظام علنًا على الرابط التالي: https://github.com/lab206/EPCFormer.