NVIDIA تطلق Nemotron Nano 2 9B لتعزيز الذكاء الاصطناعي على الحافة بقدرة تفكير دقيقة وفعالة
`، يمكن إيقاف التفكير المُستمِر، مما يقلل من استهلاك الرموز ويقلل تكاليف الاستدلال بنسبة تصل إلى 60% دون التأثير الكبير على الدقة. هذه الميزة مثالية في البيئات الحساسة للزمن، مثل الدعم الفني أو العملاء الآليين (AI agents) على الحافة. أُنشئ النموذج من خلال عملية تدريب متعددة المراحل: بدءًا من نموذج أساسي بحجم 12 مليار معلمة (NVIDIA-Nemotron-Nano-12B-v2-Base)، تم تقليل حجمه إلى 9 مليار معلمة باستخدام تقنيات التقطيع (pruning) ونقل المعرفة (knowledge distillation)، مع الحفاظ على الأداء العالي. تم تطوير هذه العملية باستخدام إطار Minitron، مع استخدام بحث هندسي عصبي (NAS) لاختيار التكوين الأمثل ضمن حدود الذاكرة (19.66 جيجابايت)، مع ترك مساحة للإطارات مثل vLLM والمحول البصري. كما خضع النموذج لتدريب مكثف بعد التدريب (post-training)، يشمل التحسين المراقب (SFT) على بيانات متوازنة في مجالات الرياضيات، البرمجة، استخدام الأدوات، والمحادثات العامة، متبوعًا بتحسين تفضيلي عبر التعلم المدعوم بالحوافز (RLHF)، مما يضمن تطابق السلوك مع المهام المطلوبة. يمكن للمطورين استخدام النموذج عبر خوادم vLLM، مع دعم مدمج لميزانية التفكير في واجهة NIM القادمة. كما تم فتح مصادر النموذج، والبيانات، وتقنيات التدريب، مما يشجع المجتمع على التخصيص والتحسين حسب الاستخدامات الخاصة. بفضل دقة قياسية في فئته، وسرعة استجابة تفوق النموذج المفتوح المنافس بنسبة 6 أضعاف، وتحكم دقيق في التكاليف، يُعد Nemotron Nano 2 9B خطوة كبيرة نحو تطوير أنظمة ذكاء اصطناعي ذكية، فعّالة، وقابلة للتوسع على الحافة.