HyperAIHyperAI
منذ 9 أيام

SPHINX-X: توسيع البيانات والمعاملات لسلسلة من النماذج اللغوية الكبيرة متعددة الوسائط

Dongyang Liu, Renrui Zhang, Longtian Qiu, Siyuan Huang, Weifeng Lin, Shitian Zhao, Shijie Geng, Ziyi Lin, Peng Jin, Kaipeng Zhang, Wenqi Shao, Chao Xu, Conghui He, Junjun He, Hao Shao, Pan Lu, Hongsheng Li, Yu Qiao, Peng Gao
SPHINX-X: توسيع البيانات والمعاملات لسلسلة من النماذج اللغوية الكبيرة متعددة الوسائط
الملخص

نُقدّم سيرياً من النماذج الكبيرة متعددة الوسائط (MLLM) بعنوان SPHINX-X، المُطوّرة بناءً على الإطار SPHINX. ولتحسين البنية المعمارية وكفاءة التدريب، نُعدّل إطار SPHINX من خلال إزالة المُشفرات البصرية الزائدة، وتخطي الصور الجزئية المُملوءة بالكامل باستخدام رموز تخطّي (skip tokens)، وتبسيط التدريب متعدد المراحل إلى نموذج موحد واحد (one-stage all-in-one). ولإطلاق الإمكانات الكاملة للنماذج الكبيرة متعددة الوسائط، نُجمِع مجموعة بيانات شاملة متعددة المجالات ومتعددة الوسائط، تغطي الموارد المتاحة علنًا في مهام اللغة، والرؤية، والرؤية-اللغة. كما نُثري هذه المجموعة بمجموعات بيانات مُختارة يُركّز فيها على معالجة النصوص البصرية (OCR) ومجموعات العلامات (Set-of-Mark)، مما يُعزز تنوعها وعموميتها. وباستخدام نماذج لغة كبيرة أساسية مختلفة، تشمل TinyLlama1.1B، InternLM2-7B، LLaMA2-13B، و Mixtral8x7B، نُنتج طيفًا من نماذج MLLM تتفاوت في حجم المعلمات وقدرات اللغة المتعددة. وكشفت الاختبارات الشاملة عن ارتباط قوي بين الأداء متعدد الوسائط وحجم البيانات وحجم المعلمات. تم إصدار الكود والنماذج على الرابط: https://github.com/Alpha-VLLM/LLaMA2-Accessory

SPHINX-X: توسيع البيانات والمعاملات لسلسلة من النماذج اللغوية الكبيرة متعددة الوسائط | أحدث الأوراق البحثية | HyperAI