ConvLLaVA: هياكل هرمية كمحول بصري لنموذج متعدد الوسائط الكبير

تواجه النماذج الكبيرة متعددة الوسائط عالية الدقة (LMMs) تحديات تتعلق بعدد كبير جدًا من الرموز البصرية (visual tokens) والتعقيد البصري التربيعي (quadratic visual complexity). وتُعالج النماذج الحالية عالية الدقة هذا التعقيد التربيعي، لكنها لا تزال تُنتج عددًا كبيرًا جدًا من الرموز البصرية. ومع ذلك، فإن التكرار في الرموز البصرية هو المشكلة الأساسية، لأنه يؤدي إلى استهلاك موارد حوسبة أكبر بكثير. ولتخفيف هذه المشكلة، نقترح نموذج ConvLLaVA، الذي يستخدم ConvNeXt، وهو هيكل تسلسلي (hierarchical backbone)، كمحول بصري (visual encoder) بديلًا لـ Vision Transformer (ViT). يُضمن ConvLLaVA تقليل الصور عالية الدقة إلى ميزات بصرية غنية بالمعلومات، مما يمنع بشكل فعّال إنتاج رموز بصرية زائدة. ولتعزيز قدرات ConvLLaVA، نقترح تحسينين جوهريين: أولاً، نظرًا لأن ConvNeXt المُدرّب على دقة منخفضة لا يؤدي أداءً جيدًا عند تطبيقه مباشرة على صور عالية الدقة، نقوم بتحديثه لتقليل الفجوة الأداء. ثانيًا، نظرًا لأن نسبة التقليل الأصلية لـ ConvNeXt غير كافية لمعالجة مدخلات ذات دقة أعلى بكثير، نُدرّب مرحلة متتالية لتقليل الرموز البصرية بشكل إضافي، مما يقلل التكرار. تُمكّن هذه التحسينات ConvLLaVA من دعم مدخلات بدقة 1536×1536 مع إنتاج فقط 576 رمزًا بصريًا، وتمكّنه من التعامل مع الصور ذات النسب الطولية المتنوعة. أظهرت النتائج التجريبية أن منهجنا يحقق أداءً تنافسيًا مع أحدث النماذج على المعايير الرئيسية. وتم إتاحة سلسلة نماذج ConvLLaVA للجمهور عبر الرابط: https://github.com/alibaba/conv-llava.