HyperAIHyperAI

Command Palette

Search for a command to run...

تسريع التدريب الدقيق لنموذج اللغة بنسبة 20 مرة مع RapidFire AI

أعلنت Hugging Face عن دمج رسمي بين مكتبة TRL ومنصة RapidFire AI، مما يتيح للمستخدمين تسريع عمليات التخصيص (fine-tuning) والتدريب اللاحق للنماذج اللغوية الكبيرة (LLMs) بنسبة تصل إلى 24 مرة. يتمثل التحسين الرئيسي في تمكين تشغيل عدة تكوينات تدريبية بشكل متزامن حتى على بطاقة رسوميات واحدة، عبر آلية تنفيذ ذكية تعتمد على تقسيم البيانات إلى "Chunks" ودوران التكوينات عبرها بشكل ديناميكي، مما يوفر تقييمًا أسرع للمؤشرات وتقارير مباشرة حول الأداء. بدلاً من تشغيل التكوينات تسلسليًا — حيث ينتظر الفريق انتهاء كل تجربة قبل بدء التالية — يتيح RapidFire AI تشغيل عدة تجارب في وقت واحد، مع تحسين استخدام وحدة المعالجة الرسومية (GPU) بنسبة تصل إلى 95%، مقابل 60% في الطريقة التقليدية. هذا يقلل زمن اتخاذ القرار حول أفضل التكوينات من 15 دقيقة إلى أقل من 5 دقائق على جهاز مزود ببطاقتين GPU، مع إمكانية مقارنة النتائج بعد أول "Chunk" من البيانات، وليس بعد انتهاء التدريب الكامل. يتميز النظام بواجهة تفاعلية تسمح بتحكم مباشر في التجارب أثناء التنفيذ، عبر ميزات تُعرف بـ "IC Ops" (Interactive Control Ops)، تتيح إيقاف أو استئناف أو حذف أو نسخ تجربة جارية، مع إمكانية تعديل المعلمات وبدء التدريب من وزن النموذج الأم (Warm-Start)، دون الحاجة لإعادة تشغيل المهام أو إدارة موارد متعددة يدويًا. كما يدعم النظام تكاملًا مباشرًا مع بيئات التطوير (IDE) وواجهة عرض للمؤشرات، مما يوفر تجربة تفاعلية حية للتحكم في التجارب. تم دعم التكامل كاستبدال مباشر لتكوينات TRL الشهيرة مثل SFT، DPO، وGRPO، من خلال فئات مثل RFSFTConfig، RFDPOConfig، وRFGRPOConfig، مما يسمح للمستخدمين بالاستمرار في استخدام نموذجهم المعتاد دون تعديل كبير في الكود. على سبيل المثال، يمكن تشغيل تجربة تدريب متعددة التكوينات على نموذج TinyLlama بسهولة عبر تعريف مجموعة من التكوينات، ثم تشغيلها بشكل متزامن باستخدام دالة Experiment.run_fit مع تحديد عدد "Chunks" المطلوب. أظهرت الاختبارات الحقيقية تحسينات كبيرة: في سيناريو يشمل 8 تكوينات على بطاقة واحدة، خفضت وقت الوصول إلى أفضل خسارة تدريب من 240 دقيقة إلى 12 دقيقة، أي تحسين بنسبة 20 مرة. وفي سيناريو مزود ببطاقتين GPU، تم تقليل الوقت من 60 دقيقة إلى 4 دقائق، بزيادة في الكفاءة بنسبة 15 مرة. لبدء الاستخدام، يكفي تثبيت الحزمة عبر pip install rapidfireai، ثم تهيئة النظام وتشغيله عبر سطر الأوامر. تُفتح واجهة المستخدم في http://localhost:3000، حيث يمكن مراقبة جميع التجارب وتعديلها فورًا. تتوفر مصادر متكاملة عبر مكتبة GitHub، وثائق مفصلة، ونسخة تجريبية مباشرة في Google Colab. يُعد هذا التكامل خطوة مهمة نحو تحسين كفاءة تطوير النماذج، حيث يحول عملية التجريب من عملية بطيئة ومتسلسلة إلى تجربة ديناميكية وسريعة، تُمكّن الفرق من تجربة مئات التكوينات في وقت قصير، وتحقيق نتائج أفضل بشكل أسرع، مع الحفاظ على كفاءة استخدام الموارد.

الروابط ذات الصلة

تسريع التدريب الدقيق لنموذج اللغة بنسبة 20 مرة مع RapidFire AI | القصص الشائعة | HyperAI