نVIDIA تطلق OpenReasoning-Nemotron: مجموعة نماذج لغوية كبيرة مختزلة لتعزيز القدرات المنطقية في الرياضياتوالعلوم والرموز البرمجية
شركة NVIDIA للذكاء الاصطناعي أعلنت عن إطلاق مجموعة من نماذج اللغات الكبيرة (LLMs) الجديدة تحت اسم OpenReasoning-Nemotron. هذه النماذج مصممة لتأدية مهام التفكير المعقدة في مجالات الرياضيات، العلوم والبرمجة. تتكون المجموعة من نماذج بأحجام مختلفة تتراوح بين 1.5 مليار و32 مليار معلمة، وهي مستخرجة من نموذج DeepSeek R1 0528 ذو الـ 671 مليار معلمة، مما يمكنها من الاحتفاظ بهامش كبير من قدراته في التفكير ضمن هياكل أصغر وأكثر كفاءة. الإفراج عن هذه النماذج يجعل NVIDIA من أكبر المساهمين في نظام نماذج اللغات الكبيرة المفتوحة المصدر، حيث يتم تقديمها بشكل تجاربي ومسموح به تجاريًا عبر منصة Hugging Face. ملخص النماذج ومميزاتها النموذج الرئيسي لـ OpenReasoning-Nemotron يعتمد على استراتيجية التقطير التي تنقل قدرة التفكير من نموذج DeepSeek R1 الضخم إلى نماذج أصغر. يتم التركيز على تعميم القدرة على التفكير بدلاً من التوقع الدقيق للرموز، مما يتيح لهذه النماذج الصغيرة أداء مهام تحتاج إلى تركيب عالي وكفاءة معرفية. البيانات المستخدمة في عملية التقطير تركز على الرياضيات، العلوم ولغات البرمجة، مما يضمن مواءمة قدرات النماذج مع مجالات التفكير الرئيسية. أصناف النماذج ومواصفاتها | اسم النموذج | عدد المعلمات | الاستخدام المقصود | صفحة Hugging Face | |--------------|---------------|---------------------|-------------------| | OpenReasoning-Nemotron-1.5B | 1.5 مليار | التفكير والاستدلال الأساسي | الرابط | | OpenReasoning-Nemotron-7B | 7 مليارات | التفكير المتوسط، مناسب للبرمجة والرياضيات | الرابط | | OpenReasoning-Nemotron-14B | 14 مليار | قدرات متقدمة في التفكير | الرابط | | OpenReasoning-Nemotron-32B | 32 مليار | أداء قريب من النماذج الرائدة في المهام المنطقية | الرابط | جميع هذه النماذج متوافقة مع هياكل الترانسفورمر، وتدعم التكميم بدرجة الدقة العالية (FP16) والدقة المنخفضة (INT8)، وهي محسنة لأجهزة NVIDIA GPUs وإطار NeMo. مقاييس الأداء حققت نماذج OpenReasoning-Nemotron أداءً أفضل من نظيراتها في مقاييس الأداء المتعلقة بالتفكير، خاصة في: GSM8K Accuracy: 66.7% (7B)، 72.9% (14B)، 77.5% (32B) HumanEval Pass@1: 34.2% (7B)، 42.0% (14B)، 49.5% (32B) ARC-challenge: 77.3% (7B)، 80.1% (14B)، 83.9% (32B) MATH: 40.5% (7B)، 47.6% (14B)، 52.3% (32B) هذه النتائج تفوق نماذج LLaMA2 وMixtral وDeepSeek-Coder عند المقارنة بالأحجام المشابهة، مما يؤكد قوة طريقة التقطير التي تركز على التفكير. بيانات التدريب وتخصص التفكير يقع السجل التدريبي لـ OpenReasoning-Nemotron في فئة البيانات عالية الجودة المستخرجة من سجل DeepSeek R1 0528. يتميز هذا السجل بجودة البيانات المرتبكة بعناية والتي تركز على مشاكل التفكير الحقيقية الموجودة في الأوساط الأكاديمية وتطبيقات الذكاء الاصطناعي. الانفتاح والتكامل مع النظام البيئي يتم إصدار جميع نماذج OpenReasoning-Nemotron بموجب تراخيص تجاربيه وتجارية، مع توفر بطاقات النماذج، نصوص التقييم وأوزان الاستدلال الجاهزة على منصة Hugging Face. هذه النماذج مصممة لتوافق مع إطار NVIDIA NeMo، وتدعم أدوات TensorRT-LLM، ONNX وHugging Face Transformers، مما يسهل نشرها بسرعة في بيئات الإنتاج والبحث. المجالات الرئيسية للتطبيق التعليم: توفير موارد تعليمية تفاعلية في الرياضيات والعلوم. البحث العلمي: دعم الباحثين في تحليل البيانات ومعالجة النصوص المعقدة. تطوير البرمجيات: تحسين كفاءة التطوير من خلال المساعدة في كتابة وتصحيح الكود. التطبيقات التجارية: تحسين الأداء في المهام المنطقية داخل الشركات. الخلاصة تقدم نماذج OpenReasoning-Nemotron من NVIDIA حلًا عمليًا ومفتوح المصدر للارتقاء بقدرات التفكير دون الحاجة إلى تكلفة الحوسبة الضخمة. من خلال التقطير من نموذج DeepSeek R1 0528 واستهداف مجالات التفكير ذات الأهمية العالية، توفر هذه النماذج توازنًا قويًا بين الدقة، الكفاءة والسهولة في الوصول. للمطورين، الباحثين والشركات التي تعمل على تطبيقات الذكاء الاصطناعي المنطقية، تعتبر OpenReasoning-Nemotron أساسًا مقنعًا خالٍ من التنازلات التي غالبًا ما ترافق النماذج الملكية أو المعممة بشكل زائد. الأسئلة الشائعة ما الفرق بين OpenReasoning-Nemotron والنماذج العامة مثل LLaMA أو Mixtral؟ نماذج OpenReasoning-Nemotron تم تقطيرها بشكل خاص لتعزيز التفكير في الرياضيات، العلوم والبرمجة. بينما يتم تدريب LLaMA وMixtral على بيانات شاملة من الإنترنت، فإن نماذج OpenReasoning تركز على المنطق الرمزي والتفكير المتدرج، مما يجعلها تتفوق على النماذج العامة في مقاييس الأداء الخاصة بمجالات التفكير المحددة. كيف تم تقطير هذه النماذج من نموذج DeepSeek R1 0528 البالغ 671 مليار معلمة؟ استخدمت عملية التقطير مخرجات عالية الجودة من نموذج DeepSeek R1 لتوجيه النماذج الأصغر أثناء التدريب. هذا يتضمن سجل تدريب محدد للمجالات المنطقية، مما يتيح لنماذج Nemotron الصغيرة التصرف بالطريقة نفسها التي يفعلها نموذج ضخم. هل يمكن استخدام نماذج OpenReasoning-Nemotron في الاستخدام التجاري؟ نعم. يتم إصدار جميع النماذج في هذه المجموعة بموجب تراخيص تجاربية وتجارية، ويمكن نشرها في بيئات الشركات باستخدام أدوات NVIDIA NeMo، TensorRT-LLM أو Hugging Face Transformers. أي حجم من نماذج OpenReasoning-Nemotron يجب أن أستخدم لتطبيقي؟ يعتمد اختيار حجم النموذج على متطلبات تطبيقك وموارد الحوسبة المتاحة. يمكنك الاطلاع على التفاصيل الفنية لمعرفة المزيد عن الأداء والمتطلبات لكل حجم. جميع حقوق البحث لهذا المشروع تعود إلى الباحثين المشاركين فيه.