Transformers v5: تبسيط التعريفات النموذجية لدفع عجلة النظام البيئي للذكاء الاصطناعي
يُعلن فريق Hugging Face عن إصدار Transformers v5.0.0rc-0، بعد خمس سنوات من الإصدار التجريبي الأول لـ v4، ليُسجّل مilestoneً كبيرًا في تطور مكتبة النماذج الشهيرة، التي أصبحت تُثبت أكثر من 3 ملايين مرة يوميًا عبر pip، بزيادة هائلة مقارنة بـ 20 ألف فقط في إصدار v4، وتخطّت في المجموع 1.2 مليار تثبيت. ازداد عدد هياكل النماذج المدعومة من 40 في v4 إلى أكثر من 400 اليوم، بينما تجاوز عدد نقاط التحقق (checkpoints) المُساهم بها من المجتمع 750 ألفًا، مقابل ألفين تقريبًا في v4. تمّ توجيه جهود v5 نحو أربع محاور رئيسية: البساطة، التدريب، الاستدلال، والإنتاج. في جانب البساطة، تمّ تبني نهج توسعي ومتعدد الطبقات، حيث تمّ تبسيط عملية إضافة النماذج عبر تصميم منظم يقلّل من التعقيد، ويقلّل عدد الأسطر المطلوبة للمراجعة بنسبة كبيرة. تمّ تقديم واجهة مركزية للانتباه (AttentionInterface) لدمج تقنيات مثل FlashAttention، SDPA، وFlexAttention، مما يُسهّل التكامل ويقلّل التكرار في الكود. تمّ أيضًا إعادة هيكلة ملفات النمذجة والمعالجة، مع التخلي عن مفهوم "المحول البطيء والسريع" في التوكيين، والاعتماد على مكتبة tokenizers كخلفية أساسية، مع دعم خيارات بديلة مثل Sentencepiece وMistralCommon. كما تمّ التوقف عن دعم Flax وTensorFlow، مع التركيز الكامل على PyTorch كخلفية واحدة، مع التعاون مع مشاريع JAX لضمان التوافق. في مجال التدريب، تمّ تحسين الدعم للتدريب الكامل على نطاق واسع، بما في ذلك إعادة تصميم التهيئة، والتوافق مع أدوات مثل torchtitan، megatron، وnanotron. كما تمّ تعزيز التكامل مع أدوات التدريب المخصصة مثل Unsloth، Axolotl، LlamaFactory، وMaxText، مما يُمكّن من استخدام النماذج في سيناريوهات متقدمة مثل التعلم المعزّز (RL). على صعيد الاستدلال، تمّ إطلاق واجهتين جديدتين مُخصّصتين للتحسين، مع دعم تلقائي للنوى المُحسّنة (kernels) حسب البيئة، مما يُحسّن الأداء دون الحاجة إلى تدخل يدوي. كما تمّ تحسين التوافق مع محركات الاستدلال الرائدة مثل vLLM، SGLang، ONNXRuntime، llama.cpp، وMLX، مما يسمح بنقل النماذج بين الأنظمة بسهولة، وتشغيلها محليًا باستخدام تقنيات مثل GGUF أو executorch. تمّ أيضًا جعل التكميم (Quantization) جزءًا أساسيًا من المكتبة، مع دعم كامل للنماذج منخفضة الدقة مثل 8 بت و4 بت، مما يُسهم في تحسين الكفاءة وتمكين تشغيل النماذج على الأجهزة المحدودة. تمّ التعاون مع فرق مثل TorchAO وbitsandbytes لتحسين الدعم وتوسيع الميزات. في الختام، يُمثّل v5 تحوّلًا استراتيجيًا نحو التكامل والتوافق، حيث أصبحت Transformers نقطة مركزية في النظام البيئي، تُمكّن من تدريب النموذج باستخدام أدوات متعددة، ونشره عبر محركات استدلال مُخصّصة، ثم استغلاله محليًا عبر أدوات مثل llama.cpp أو MLX. يُعدّ هذا الإصدار نتاج خمس سنوات من تطوير جماعي، ووعدًا بمستقبل مفتوح ومتّصل لعالم الذكاء الاصطناعي. يُشجّع الفريق المجتمع على مشاركة ملاحظاته من خلال ملاحظات الإصدار ومواضيع GitHub.
