HyperAI

نشر DeepSeek-R1-0528-Qwen3-8B بنقرة واحدة

1. مقدمة البرنامج التعليمي

موارد الحوسبة المستخدمة في هذا البرنامج التعليمي هي بطاقة RTX 4090 واحدة.

تم إصدار DeepSeek-R1-0528-Qwen3-8B بواسطة فريق DeepSeek في مايو 2025. وهو نموذج استدلال خفيف الوزن تم تدريبه بناءً على تقنية تقطير سلسلة التفكير في DeepSeek-R1-0528. النموذج يحتوي على 8 مليار معلمة. من خلال تقطير قدرات التفكير المعقدة لـ DeepSeek-R1-0528 على نموذج القاعدة Qwen3-8B الأصغر، فإنه يجمع بين قدرات اللغات المتعددة لـ Qwen3 وتحسين التفكير لـ DeepSeek-R1. أداؤها يضاهي أداء GPT-4، كما أنها تدعم النشر الفعال لبطاقة واحدة، مما يجعلها الخيار الأمثل للتطبيقات الأكاديمية والمؤسسية. في مؤتمر AIME 2024، حقق DeepSeek-R1-0528-Qwen3-8B أفضل أداء (SOTA) بين نماذج المصدر المفتوح، متجاوزًا Qwen3 8B +10.0% ومقارنًا بأداء Qwen3-235B-thinking.

2. أمثلة المشاريع

3. خطوات التشغيل

1. ابدأ تشغيل الحاوية

إذا لم يتم عرض "النموذج"، فهذا يعني أنه يتم تهيئة النموذج. نظرًا لأن النموذج كبير الحجم، يرجى الانتظار لمدة 2-3 دقائق وتحديث الصفحة.

2. بعد الدخول إلى صفحة الويب، يمكنك بدء محادثة مع النموذج

4. المناقشة

🖌️ إذا رأيت مشروعًا عالي الجودة، فيرجى ترك رسالة في الخلفية للتوصية به! بالإضافة إلى ذلك، قمنا أيضًا بتأسيس مجموعة لتبادل الدروس التعليمية. مرحبًا بالأصدقاء لمسح رمز الاستجابة السريعة وإضافة [برنامج تعليمي SD] للانضمام إلى المجموعة لمناقشة المشكلات الفنية المختلفة ومشاركة نتائج التطبيق↓

معلومات الاستشهاد

معلومات الاستشهاد لهذا المشروع هي كما يلي:

@misc{deepseekai2025deepseekr1incentivizingreasoningcapability,
      title={DeepSeek-R1: Incentivizing Reasoning Capability in LLMs via Reinforcement Learning}, 
      author={DeepSeek-AI},
      year={2025},
      eprint={2501.12948},
      archivePrefix={arXiv},
      primaryClass={cs.CL},
      url={https://arxiv.org/abs/2501.12948}, 
}