HyperAIHyperAI

Command Palette

Search for a command to run...

موديلات Falcon-H1-Arabic تُحدث ثورة في معالجة اللغة العربية ببنية هجينة مبتكرة

أعلنت شركة TII عن إطلاق Falcon-H1-Arabic، أحدث عائلة من نماذج اللغة العربية المتطورة، التي تمثل تقدماً جوهرياً في تطوير الذكاء الاصطناعي للغة العربية. تُعد هذه العائلة، المكونة من نماذج بحجم 3B و7B و34B، الأقوى في مجال معالجة اللغة العربية حتى الآن، بفضل معمارية هجينة مبتكرة وبيانات تدريب عالية الجودة. انطلقت الفكرة من نموذج Falcon-Arabic السابق، الذي حظي بتفاعل واسع من المجتمع العلمي والتقني، مما ساهم في تحديد نقاط ضعف رئيسية مثل فهم السياقات الطويلة، التفاوتات اللهجية، والاستدلال الرياضي. استجابةً لذلك، طوّرت TII معمارية هجينة جديدة تجمع بين نماذج الحالة المتسلسلة (Mamba) والشبكات العصبية التحويلية (Transformer) داخل كل كتلة حسابية، حيث تعمل كلا المكونين بالتوازي ثم يتم دمج مخرجاتهما. هذه الهيكلية تتيح التوسع الخطي في المعالجة (مما يسمح بمعالجة سياقات تصل إلى 256 ألف رمز)، مع الحفاظ على دقة النموذج في التعرف على العلاقات طويلة المدى، وهو أمر بالغ الأهمية للغة العربية الغنية بالتركيب النحوي والصرف. تم توسيع نطاق السياق بشكل كبير مقارنة بالإصدار السابق (32 ألف رمز)، حيث تصل إلى 128 ألف رمز في النموذج 3B، و256 ألف رمز في النموذجين 7B و34B، ما يسمح بتحليل مجموعات كبيرة من النصوص مثل الروايات أو الوثائق الطبية والقانونية. كما تم تحسين أداء النماذج في تجنب "الانفصال عن الوسط" (lost in the middle)، لضمان استغلال فعّال لجميع مدخلات السياق. تم إعادة بناء نموذج البيانات التدريبية من الصفر، باستخدام تصفية متعددة المراحل تعتمد على التحليل اللغوي العميق، مما قلل من الضوضاء ورفع جودة النصوص العربية. تم توسيع تغطية اللهجات العربية (المصرية، الشامية، الخليجية، المغربية)، مع الحفاظ على التوازن بين اللغة الفصحى والمحتوى متعدد اللغات، بما يقارب 300 مليار رمز، مما يعزز الأداء في المهام العلمية، البرمجية، والتفكير المتقاطع بين اللغات. بعد التدريب الأولي، خضعت النماذج لمرحلة تدريب مُوجَّه (SFT) ثم تحسين تفضيلات مباشر (DPO)، لتحسين التفاعل، والاتساق، واتباع التعليمات، مع الحفاظ على الدقة والقدرة على الاستدلال. هذا النهج يضمن أن النماذج لا تكتفي بمعالجة السياقات الطويلة، بل تستخدمها فعلاً بكفاءة. في التقييمات، حققت النماذج أداءً قياسياً: النموذج 3B حصل على 62% في معيار OALL، و82% في معيار 3LM (العلوم والهندسة)، مما يجعله مثالياً للتطبيقات الحافة. النموذج 7B تجاوز جميع النماذج في فئة 10 مليار معلمة، مع 71.7% في OALL و92% في 3LM، مما يجعله الخيار الأمثل للتطبيقات الإنتاجية. أما النموذج 34B، فهو الأقوى على الإطلاق، حيث تجاوز نماذج كبيرة مثل Llama-3.3-70B في الأداء، مع 75% في OALL و96% في 3LM، مما يثبت فعالية الهيكل الهجين. تم تصميم كل نموذج لتلبية سيناريوهات تطبيقية مختلفة: 3B للمهام عالية السرعة والحدود المحدودة، 7B للأنظمة العامة، و34B للمهام الحساسة مثل التحليل القانوني أو الطبي. رغم التقدم الكبير، يُوصى بفحص النماذج بشكل دقيق قبل الاستخدام في المجالات الحساسة، نظراً لاحتمالية التحيّز أو التلاعب بالمعلومات. تم تقديم هذه النتائج بفضل التعاون مع المجتمع البحثي العربي، ودعم فريق TII، وتم نشر النموذج مفتوح المصدر على Hugging Face.

الروابط ذات الصلة

موديلات Falcon-H1-Arabic تُحدث ثورة في معالجة اللغة العربية ببنية هجينة مبتكرة | القصص الشائعة | HyperAI