نشر DeepSeek-R1-0528-Qwen3-8B بنقرة واحدة
1. مقدمة البرنامج التعليمي
موارد الحوسبة المستخدمة في هذا البرنامج التعليمي هي بطاقة RTX 4090 واحدة.
تم إصدار DeepSeek-R1-0528-Qwen3-8B بواسطة فريق DeepSeek في مايو 2025. وهو نموذج استدلال خفيف الوزن تم تدريبه بناءً على تقنية تقطير سلسلة التفكير في DeepSeek-R1-0528. النموذج يحتوي على 8 مليار معلمة. من خلال تقطير قدرات التفكير المعقدة لـ DeepSeek-R1-0528 على نموذج القاعدة Qwen3-8B الأصغر، فإنه يجمع بين قدرات اللغات المتعددة لـ Qwen3 وتحسين التفكير لـ DeepSeek-R1. أداؤها يضاهي أداء GPT-4، كما أنها تدعم النشر الفعال لبطاقة واحدة، مما يجعلها الخيار الأمثل للتطبيقات الأكاديمية والمؤسسية. في مؤتمر AIME 2024، حقق DeepSeek-R1-0528-Qwen3-8B أفضل أداء (SOTA) بين نماذج المصدر المفتوح، متجاوزًا Qwen3 8B +10.0% ومقارنًا بأداء Qwen3-235B-thinking.
2. أمثلة المشاريع

3. خطوات التشغيل
1. ابدأ تشغيل الحاوية
إذا لم يتم عرض "النموذج"، فهذا يعني أنه يتم تهيئة النموذج. نظرًا لأن النموذج كبير الحجم، يرجى الانتظار لمدة 2-3 دقائق وتحديث الصفحة.

2. بعد الدخول إلى صفحة الويب، يمكنك بدء محادثة مع النموذج

4. المناقشة
🖌️ إذا رأيت مشروعًا عالي الجودة، فيرجى ترك رسالة في الخلفية للتوصية به! بالإضافة إلى ذلك، قمنا أيضًا بتأسيس مجموعة لتبادل الدروس التعليمية. مرحبًا بالأصدقاء لمسح رمز الاستجابة السريعة وإضافة [برنامج تعليمي SD] للانضمام إلى المجموعة لمناقشة المشكلات الفنية المختلفة ومشاركة نتائج التطبيق↓

معلومات الاستشهاد
معلومات الاستشهاد لهذا المشروع هي كما يلي:
@misc{deepseekai2025deepseekr1incentivizingreasoningcapability,
title={DeepSeek-R1: Incentivizing Reasoning Capability in LLMs via Reinforcement Learning},
author={DeepSeek-AI},
year={2025},
eprint={2501.12948},
archivePrefix={arXiv},
primaryClass={cs.CL},
url={https://arxiv.org/abs/2501.12948},
}