HyperAIHyperAI

Command Palette

Search for a command to run...

سلسلة فالكون من نماذج اللغة المفتوحة

الملخص

نقدم سلسلة فالكون: نماذج مفككة فقط ذات علاقات سببية بحجم 7 مليار، 40 مليار، و180 مليار معلمة تم تدريبها على مجموعة متنوعة ومتميزة من النصوص التي تم جمعها بشكل أساسي من بيانات الويب. النموذج الأكبر، فالكون-180B، قد تم تدريبه على أكثر من 3.5 تريليون رمز نصي--وهو أكبر عملية تدريبية موثقة علنيًا حتى الآن. يتفوق فالكون-180B بشكل كبير على النماذج مثل PaLM أو Chinchilla، ويحسن أداء النماذج المطورة بالتوازي مثل LLaMA 2 أو Inflection-1. يقترب أداءه من PaLM-2-Large مع تكلفة أقل للتدريب والاستدلال، مما يجعله، حسب علمنا، أحد أفضل ثلاثة نماذج لغوية في العالم إلى جانب GPT-4 وPaLM-2-Large. نقدم تقييمات مفصلة بالإضافة إلى دراسة عميقة للطرق والأدوات المخصصة المستخدمة في تدريب فالكون. ومن الجدير بالذكر أننا نقدم شفرة التدريب الموزع الخاصة بنا، والتي تسمح لنا بتدريب هذه النماذج بكفاءة على ما يصل إلى 4,096 معالج A100 في البنية التحتية السحابية AWS مع اتصال محدود بين المعالجين. كما نطلق استخراجًا يحتوي على 600 مليار رمز نصي من قاعدة بيانات الويب الخاصة بنا، بالإضافة إلى نماذج فالكون بحجم 7/40/180 مليار تحت رخصة مرنة لتعزيز العلوم المفتوحة وتسرع تطوير نظام بيئي مفتوح للنماذج اللغوية الكبيرة.


بناء الذكاء الاصطناعي بالذكاء الاصطناعي

من الفكرة إلى الإطلاق — سرّع تطوير الذكاء الاصطناعي الخاص بك مع المساعدة البرمجية المجانية بالذكاء الاصطناعي، وبيئة جاهزة للاستخدام، وأفضل أسعار لوحدات معالجة الرسومات.

البرمجة التعاونية باستخدام الذكاء الاصطناعي
وحدات GPU جاهزة للعمل
أفضل الأسعار

HyperAI Newsletters

اشترك في آخر تحديثاتنا
سنرسل لك أحدث التحديثات الأسبوعية إلى بريدك الإلكتروني في الساعة التاسعة من صباح كل يوم اثنين
مدعوم بواسطة MailChimp
سلسلة فالكون من نماذج اللغة المفتوحة | مستندات | HyperAI