HyperAIHyperAI

Command Palette

Search for a command to run...

OctoPack: تعليم ضبط نماذج اللغة الكبيرة

Niklas Muennighoff Qian Liu Armel Zebaze Qinkai Zheng Binyuan Hui Terry Yue Zhuo Swayam Singh Xiangru Tang Leandro von Werra Shayne Longpre

الملخص

تuning النماذج اللغوية الكبيرة (LLMs) على التعليمات يؤدي إلى تحسينات كبيرة في أداء المهام اللغوية الطبيعية. نقوم بتطبيق ضبط التعليمات باستخدام الرموز البرمجية، مستفيدين من البنية الطبيعية للمراسلات في Git، والتي تربط بين تغييرات الرموز والتعليمات البشرية. قمنا بتجميع حزمة المراسلات (CommitPack): 4 تيرابايت من مراسلات Git عبر 350 لغة برمجة. قمنا بمقارنة حزمة المراسلات مع تعليمات الرموز الأخرى الطبيعية والاصطناعية (xP3x, Self-Instruct, OASST) على نموذج StarCoder ذو المعلمة 16 مليار، وحققنا أفضل الأداء بين النماذج التي لم يتم تدريبها على مخرجات OpenAI، في معيار HumanEval لغة Python (46.2% pass@1). كما قمنا بتقديم HumanEvalPack، مما يوسع معيار HumanEval ليشمل إجمالي 3 مهام برمجة (إصلاح الرمز، شرح الرمز، تركيب الرمز) عبر 6 لغات (Python, JavaScript, Java, Go, C++, Rust). حققت نماذجنا OctoCoder و OctoGeeX أفضل الأداء عبر HumanEvalPack بين جميع النماذج المسموح بها، مما يظهر فوائد حزمة المراسلات في التعميم إلى مجموعة أوسع من اللغات والمهمات البرمجية الطبيعية. يمكن الحصول على الرموز والنماذج والبيانات بشكل مجاني من https://github.com/bigcode-project/octopack.


بناء الذكاء الاصطناعي بالذكاء الاصطناعي

من الفكرة إلى الإطلاق — سرّع تطوير الذكاء الاصطناعي الخاص بك مع المساعدة البرمجية المجانية بالذكاء الاصطناعي، وبيئة جاهزة للاستخدام، وأفضل أسعار لوحدات معالجة الرسومات.

البرمجة التعاونية باستخدام الذكاء الاصطناعي
وحدات GPU جاهزة للعمل
أفضل الأسعار

HyperAI Newsletters

اشترك في آخر تحديثاتنا
سنرسل لك أحدث التحديثات الأسبوعية إلى بريدك الإلكتروني في الساعة التاسعة من صباح كل يوم اثنين
مدعوم بواسطة MailChimp