HyperAIHyperAI

Command Palette

Search for a command to run...

تعزيز النموذج اللغوي الكبير متعدد الوسائط من خلال التحسين المُستند إلى التفضيل المُعزّز

Renjie Pi Tianyang Han Wei Xiong Jipeng Zhang Runtao Liu Rui Pan Tong Zhang

الملخص

تتفوق النماذج الكبيرة متعددة الوسائط (MLLMs) في إنتاج ردود استنادًا إلى المدخلات البصرية. ومع ذلك، غالبًا ما تعاني من انحياز يدفعها إلى إنتاج ردود مشابهة لملف التدريب المسبق، مما يُهمّش أهمية المعلومات البصرية. ننظر إلى هذا الانحياز على أنه "تفضيل" مُستند إلى إحصائيات التدريب المسبق، وهو ما يعيق تأصيل النموذج في المدخلات البصرية. لمعالجة هذه المشكلة، نقترح تحسين التفضيل المُستند إلى التوليد (BPO)، الذي يُجري تعلم التفضيل باستخدام مجموعات بيانات تحتوي على ردود سلبية تم استخلاصها من النموذج نفسه. وبشكل خاص، نقترح الاستراتيجيتين التاليتين: 1) استخدام مدخلات صور مشوهة للنموذج متعدد الوسائط (MLLM) للحصول على ردود تحتوي على مؤشرات على الانحياز الناتج عن التدريب المسبق؛ 2) الاستفادة من النماذج اللغوية القائمة على النص (LLM) لإدخال عناصر خاطئة ولكن شائعة بشكل صريح في الرد الأصلي. تُستخدم هذه الردود غير المرغوبة مع الردود المُعلّمة الأصلية من المجموعات لبناء مجموعة بيانات التفضيل، والتي تُستخدم بعدها في عملية تعلم التفضيل. يُظهر نهجنا فعالية في تقليل انحياز النموذج المُدرّب مسبقًا، مما يعزز التأصيل في المدخلات البصرية. تُظهر التجارب الواسعة تحسينات كبيرة في الأداء عبر عدة معايير، ما يُسهم في تطوير الحالة الراهنة لنظم المحادثة متعددة الوسائط.


بناء الذكاء الاصطناعي بالذكاء الاصطناعي

من الفكرة إلى الإطلاق — سرّع تطوير الذكاء الاصطناعي الخاص بك مع المساعدة البرمجية المجانية بالذكاء الاصطناعي، وبيئة جاهزة للاستخدام، وأفضل أسعار لوحدات معالجة الرسومات.

البرمجة التعاونية باستخدام الذكاء الاصطناعي
وحدات GPU جاهزة للعمل
أفضل الأسعار

HyperAI Newsletters

اشترك في آخر تحديثاتنا
سنرسل لك أحدث التحديثات الأسبوعية إلى بريدك الإلكتروني في الساعة التاسعة من صباح كل يوم اثنين
مدعوم بواسطة MailChimp
تعزيز النموذج اللغوي الكبير متعدد الوسائط من خلال التحسين المُستند إلى التفضيل المُعزّز | مستندات | HyperAI