Nemotron 3 Nano: نموذج مختلط مفتوح المصدر وفعال من نوع خبراء المزيج هجين مامبا-Transformer للتفكير الوظيفي
Nemotron 3 Nano: نموذج مختلط مفتوح المصدر وفعال من نوع خبراء المزيج هجين مامبا-Transformer للتفكير الوظيفي
NVIDIA

الملخص
نقدّم نموذج Nemotron 3 Nano 30B-A3B، وهو نموذج لغوي مُختلط من نوع "مزيج الخبراء" (Mixture-of-Experts) يدمج بين معمارية Mamba وشبكة Transformer. تم تدريب نموذج Nemotron 3 Nano مسبقًا على 25 تريليون رمز نصي، بما في ذلك أكثر من 3 تريليون رمز فريد جديد مقارنةً بنموذج Nemotron 2، تلاه تدريب مُراقب وتحسين على نطاق واسع باستخدام التعلم بالتعزيز (RL) في بيئات متنوعة. يحقق نموذج Nemotron 3 Nano دقة أعلى مقارنةً بجيلنا السابق Nemotron 2 Nano، مع تفعيل أقل من نصف عدد المعلمات في كل عملية تمرير أمامي (forward pass). كما يُحقّق أداءً في التوليد (inference throughput) يصل إلى 3.3 أضعاف النماذج المفتوحة ذات الحجم المماثل، مثل GPT-OSS 20B وQwen3-30B-A3B-Thinking-2507، مع الحفاظ على دقة أعلى في معايير التقييم الشهيرة. ويُظهر نموذج Nemotron 3 Nano تحسّنًا ملحوظًا في القدرات العاملة (agentic)، والتفكير المنطقي، والدردشة، ويُدعم طول سياق يصل إلى مليون رمز. ونُطلق نسخة النموذج المُدرّب مسبقًا (pretrained) Nemotron 3 Nano 30B-A3B Base، وكذلك النسخة المُدرّبة لاحقًا (post-trained) Nemotron 3 Nano 30B-A3B، على منصة Hugging Face.
بناء الذكاء الاصطناعي بالذكاء الاصطناعي
من الفكرة إلى الإطلاق — عجّل تطوير الذكاء الاصطناعي الخاص بك من خلال البرمجة المشتركة المجانية بالذكاء الاصطناعي، وبيئة جاهزة للاستخدام، وأفضل أسعار لوحدات معالجة الرسومات.