MA-LMM: نموذج متعدد الوسائط ذو الذاكرة المُعززة لفهم الفيديو على المدى الطويل

مع نجاح النماذج اللغوية الكبيرة (LLMs)، ازداد الاهتمام مؤخرًا بدمج نموذج الرؤية في LLMs لبناء نماذج أساسية للرؤية واللغة. ومع ذلك، فإن النماذج المتعددة الوسائط الكبيرة القائمة على LLMs الحالية (مثل Video-LLaMA، VideoChat) يمكنها فقط معالجة عدد محدود من الإطارات لفهم مقاطع الفيديو القصيرة. في هذه الدراسة، نركز بشكل أساسي على تصميم نموذج فعال وكفء لفهم الفيديو على المدى الطويل. بدلاً من محاولة معالجة المزيد من الإطارات بشكل متزامن كما هو الحال في معظم الأعمال الحالية، نقترح معالجة الفيديوهات بطريقة عبر الإنترنت وتخزين المعلومات المرئية السابقة في بنك ذاكرة. هذا يسمح لنموذجنا بالرجوع إلى محتوى الفيديو التاريخي للتحليل على المدى الطويل دون تجاوز قيود طول السياق الخاصة بـ LLMs أو حدود ذاكرة GPU. يمكن دمج بنك الذاكرة الخاص بنا بسلاسة في النماذج المتعددة الوسائط الحالية القائمة على LLMs بطريقة جاهزة للمستخدم. أجرينا تجارب واسعة النطاق على مهام مختلفة لفهم الفيديو، مثل فهم مقاطع الفيديو الطويلة، وإجابات الأسئلة حول الفيديو، وكتابة التوضيحات للفيديو، وحقق نموذجنا أفضل الأداءات الحالية عبر عدة قواعد بيانات. الشفرة البرمجية متاحة على الرابط https://boheumd.github.io/MA-LMM/.