HyperAIHyperAI

Command Palette

Search for a command to run...

LLaMA-Adapter: تحسين كفاءة ضبط النماذج اللغوية باستخدام انتباه المبادرة بالصفر

Renrui Zhang∗1,2 Jiaming Han∗1,2 Chris Liu∗1 Aojun Zhou2 Pan Lu3 Yu Qiao†1 Hongsheng Li‡2,4 Peng Gao†∗1

الملخص

نقدم LLaMA-Adapter، وهو طريقة تكيف خفيفة لتحسين LLaMA بكفاءة إلى نموذج يتبع التعليمات. باستخدام 52 ألف مثال ذاتي التوجيه، يضيف LLaMA-Adapter فقط 1.2 مليون معلمة قابلة للتعلم على النموذج المجمد LLaMA 7B، ويستغرق أقل من ساعة واحدة لتغليمه على 8 بطاقات A100. بشكل خاص، نعتمد مجموعة من دوافع التكيف القابلة للتعلم، ونضيفها إلى رموز الكلمات في الطبقات العلوية للمحول (Transformer). ثم، تم اقتراح آلية انتباه مبادرة بالصفر مع إغلاق صفر (Zero Gating)، والتي تحقن الإشارات التعليمية الجديدة في LLaMA بطريقة تكيفية، بينما تحتفظ بفعالية بالمعرفة التي تم تدريبه عليها مسبقًا. بفضل تدريبنا الفعال، يمكن لـ LLaMA-Adapter إنتاج استجابات عالية الجودة، مكافئة لأداء Alpaca مع تغليف كامل لمعلمات 7B. بالإضافة إلى الأوامر اللغوية، يمكن توسيع نهجنا بسهولة ليشمل تعليمات متعددة الوسائط لتعلم نموذج LLaMA المشروط بالصور (Image-conditioned)، مما يحقق أداءً استدلالياً فائقاً على مقاييس ScienceQA وCOCO Caption. علاوة على ذلك، قمنا أيضًا بتقييم آلية الانتباه المبادرة بالصفر لتغليف نماذج مسبقة التدريب أخرى (مثل ViT وRoBERTa) في مهمات الرؤية واللغة التقليدية، مما يظهر القدرة العامة الفائقة لنهجنا. تم إطلاق الكود في https://github.com/OpenGVLab/LLaMA-Adapter.


بناء الذكاء الاصطناعي بالذكاء الاصطناعي

من الفكرة إلى الإطلاق — سرّع تطوير الذكاء الاصطناعي الخاص بك مع المساعدة البرمجية المجانية بالذكاء الاصطناعي، وبيئة جاهزة للاستخدام، وأفضل أسعار لوحدات معالجة الرسومات.

البرمجة التعاونية باستخدام الذكاء الاصطناعي
وحدات GPU جاهزة للعمل
أفضل الأسعار

HyperAI Newsletters

اشترك في آخر تحديثاتنا
سنرسل لك أحدث التحديثات الأسبوعية إلى بريدك الإلكتروني في الساعة التاسعة من صباح كل يوم اثنين
مدعوم بواسطة MailChimp