SPHINX-X: توسيع البيانات والمعاملات لسلسلة من النماذج اللغوية الكبيرة متعددة الوسائط

نُقدّم سيرياً من النماذج الكبيرة متعددة الوسائط (MLLM) بعنوان SPHINX-X، المُطوّرة بناءً على الإطار SPHINX. ولتحسين البنية المعمارية وكفاءة التدريب، نُعدّل إطار SPHINX من خلال إزالة المُشفرات البصرية الزائدة، وتخطي الصور الجزئية المُملوءة بالكامل باستخدام رموز تخطّي (skip tokens)، وتبسيط التدريب متعدد المراحل إلى نموذج موحد واحد (one-stage all-in-one). ولإطلاق الإمكانات الكاملة للنماذج الكبيرة متعددة الوسائط، نُجمِع مجموعة بيانات شاملة متعددة المجالات ومتعددة الوسائط، تغطي الموارد المتاحة علنًا في مهام اللغة، والرؤية، والرؤية-اللغة. كما نُثري هذه المجموعة بمجموعات بيانات مُختارة يُركّز فيها على معالجة النصوص البصرية (OCR) ومجموعات العلامات (Set-of-Mark)، مما يُعزز تنوعها وعموميتها. وباستخدام نماذج لغة كبيرة أساسية مختلفة، تشمل TinyLlama1.1B، InternLM2-7B، LLaMA2-13B، و Mixtral8x7B، نُنتج طيفًا من نماذج MLLM تتفاوت في حجم المعلمات وقدرات اللغة المتعددة. وكشفت الاختبارات الشاملة عن ارتباط قوي بين الأداء متعدد الوسائط وحجم البيانات وحجم المعلمات. تم إصدار الكود والنماذج على الرابط: https://github.com/Alpha-VLLM/LLaMA2-Accessory