Command Palette
Search for a command to run...
ديب سيك-ف3.2: دفع حدود النماذج اللغوية الكبيرة المفتوحة
ديب سيك-ف3.2: دفع حدود النماذج اللغوية الكبيرة المفتوحة
Abstract
نقدم نموذج DeepSeek-V3.2، الذي يحقق توازنًا بين الكفاءة الحسابية العالية والأداء المتميز في التفكير والاستقلالية (الوكلاء). وتتمثل أبرز الإنجازات التقنية في DeepSeek-V3.2 في ما يلي:(1) الانتباه النادر لـ DeepSeek (DSA): نقدّم DSA، وهي آلية انتباه فعّالة تقلّل بشكل كبير من التعقيد الحسابي مع الحفاظ على أداء النموذج في السياقات الطويلة.(2) إطار تعلم التدعيم القابل للتوسع: من خلال تطبيق بروتوكول تعلم التدعيم القوي وتوسيع قدرة الحوسبة بعد التدريب، يُظهر DeepSeek-V3.2 أداءً يوازي GPT-5. وبشكل لافت، يتفوّق النموذج ذي القدرة الحسابية العالية، DeepSeek-V3.2-Speciale، على GPT-5، ويُظهر كفاءة في التفكير مماثلة لـ Gemini-3.0-Pro، ما يُسهم في تحقيق أداء ذهبي في مسابقة الأولمبياد الدولي للرياضيات لعام 2025 (IMO) والمسابقة الدولية في علم الحاسوب (IOI).(3) قناة توليد المهام الوكيلة على نطاق واسع: لدمج التفكير في السياقات التي تتطلب استخدام الأدوات، طوّرنا قناة توليد جديدة تُولّد بيانات التدريب بشكل منهجي وواسع النطاق. ويساهم هذا النهج في تدريب وقائي مُ-scalable للوكالات، مما يؤدي إلى تحسينات كبيرة في القدرة على التعميم والثبات في اتباع التعليمات داخل البيئات المعقدة والتفاعلية.