موديل Falcon H1R 7B الجديد يُحدث ثورة في كفاءة التفكير الاصطناعي بحجم صغير
أعلنت مؤسسة تكنولوجيا الابتكار في أبوظبي (TII) عن إطلاق نموذج اللغة الكبير Falcon H1R 7B، وهو نموذج مُشفّر فقط يُعدّ خطوة كبيرة في تحسين قدرات التفكير المنطقي، رغم حجمه الصغير البالغ 7 مليار معلمة. يُبنى النموذج على أساس نموذج Falcon-H1 Base، لكنه يتفوق على نماذج حديثة أكبر بمرات 2 إلى 7، مع الحفاظ على كفاءة عالية في استخدام الموارد. تم تدريب Falcon H1R 7B عبر نموذج تدريب مزدوج مبني على بيانات دقيقة، يتضمن تدريبًا مراقبًا كفؤًا متبوعًا بعملية تحسين تعتمد على التعلم بالتعزيز (RL scaling). ويُعتمد تصميم النموذج على ثلاث محاور أساسية للكفاءة في التفكير: السرعة، كفاءة استخدام الرموز (tokens)، والدقة، ما يشكل ما يُعرف بحدود الأداء الثلاثية (3-D limits). أحد أبرز ميزات النموذج هو استخدامه لتقنية "Deep Think مع الثقة" (DeepConf) أثناء التقييم، وهي طريقة خفيفة تعتمد على تقييم الثقة في التوليد التسلسلي للنصوص، حيث تُزيل تلقائيًا السلاسل المنطقية المنخفضة الجودة دون الحاجة إلى تدريب إضافي أو ضبط معلمات. هذا يُحسّن الأداء ويقلل من عدد الرموز المُولَّدة، ما يجعل النموذج أكثر كفاءة في التوسع أثناء التقييم (Test-Time Scaling). في اختبارات الأداء، أظهر Falcon H1R 7B نتائج متميزة في مجالات الرياضيات والبرمجة والمهام العامة. في اختبارات الرياضيات، تفوق على نماذج أكبر مثل Qwen3-8B وDeepSeek R1-0528، خصوصًا في اختبارات AIME وHMMT، حيث حقق نسب دقة تصل إلى 88.1% و64.9% على التوالي. وفي مهام البرمجة، تفوق على نماذج 8B و32B في مهام مثل LCB v6 وSciCode، وحلّ في المرتبة الثانية في TB Hard. كما تفوق في مهام عامة مثل MMLU-Pro، حيث حقق 72.1%، متفوقًا على جميع النماذج ذات 8B، وقريبًا من نماذج 14B و32B. من ناحية الأداء في التوليد، تفوق Falcon H1R 7B على Qwen3-8B في سرعة توليد الرموز، خصوصًا عند زيادة حجم الدفعات (batch size). في السيناريو القياسي (512 → 32k)، حقق ما يقارب 1500 رمزًا في الثانية لكل وحدة معالجة رسومية (GPU) عند حجم دفعة 64، متفوقًا بمرات على Qwen3. وعند معالجة مدخلات طويلة (8k → 16k)، حافظ على سرعة تقارب 1800 رمز/ثانية/GPU، بينما بقيت أداء Qwen3 دون 900. يُعزى هذا الأداء المتميز إلى البنية الهجينة التي تجمع بين معمارية Transformer وMamba، ما يُحسّن الكفاءة في التوسع واستخدام الذاكرة. كما تم إطلاق النموذج بشكل مفتوح المصدر تحت ترخيص Falcon LLM، بهدف تعزيز التعاون والوصول إلى الذكاء الاصطناعي في المجتمع العالمي. يُعتبر Falcon H1R 7B نموذجًا مثاليًا للمطورين والباحثين الذين يبحثون عن كفاءة عالية في التفكير المنطقي دون الحاجة إلى نماذج ضخمة، ويُمثل خطوة متقدمة نحو نماذج أكثر ذكاءً وكفاءة في المستقبل.
