HyperAI

DiffuCode-7B-cpGRPO: نموذج توليد الكود يعتمد على تقنية انتشار القناع

1. مقدمة البرنامج التعليمي

نجوم جيثب

DiffuCoder-7B-cpGRPO هو نموذج توليد شيفرة قائم على الانتشار المقنع (dLLM)، اقترحه فريق Apple لأول مرة في ورقة بحثية ذات صلة بتاريخ 25 يونيو 2025. تم تدريبه باستخدام أكثر من 20,000 مثال شيفرة مُختار بعناية. يهدف النموذج إلى توليد الشيفرة وتحريرها من خلال إزالة الضوضاء التكرارية، بدلاً من التوليد الانحداري التلقائي التقليدي من اليسار إلى اليمين. من الميزات البارزة لـ DiffuCoder-7B-cpGRPO أنه لا يعتمد بشكل صارم على التوليد من اليسار إلى اليمين لتوليد الشيفرة، مما يجعله يحصل على 4.4% أعلى من نماذج البرمجة الأخرى القائمة على الانتشار في معايير البرمجة السائدة. تُمكّنه هذه القدرة غير التسلسلية على توليد الشيفرة من إظهار مرونة وكفاءة أعلى في مهام تحرير الشيفرة وتوليدها. نتائج الورقة البحثية ذات الصلة هي:DiffuCoder: فهم نماذج الانتشار المقنعة وتحسينها لتوليد التعليمات البرمجية".

يستخدم هذا البرنامج التعليمي الموارد لبطاقة RTX 4090 واحدة.

2. أمثلة المشاريع

3. خطوات التشغيل

1. بعد بدء تشغيل الحاوية، انقر فوق عنوان API للدخول إلى واجهة الويب

2. خطوات الاستخدام

إذا تم عرض "بوابة سيئة"، فهذا يعني أن النموذج قيد التهيئة. نظرًا لأن النموذج كبير الحجم، يرجى الانتظار لمدة 2-3 دقائق وتحديث الصفحة.

وصف المعلمة

  • الإعدادات المتقدمة:
    • درجة الحرارة: تتحكم في تنوع الجيل، فكلما ارتفعت كانت أكثر عشوائية، وكلما انخفضت كانت أكثر حتمية.
    • أعلى قيمة p: الحد التراكمي لعينة الاحتمال. كلما كانت القيمة أصغر، كان الجيل أكثر تحفظًا.
    • Max-tokens: يحدد الحد الأقصى لطول جيل واحد من النموذج.

4. المناقشة

🖌️ إذا رأيت مشروعًا عالي الجودة، فيرجى ترك رسالة في الخلفية للتوصية به! بالإضافة إلى ذلك، قمنا أيضًا بتأسيس مجموعة لتبادل الدروس التعليمية. مرحبًا بالأصدقاء لمسح رمز الاستجابة السريعة وإضافة [برنامج تعليمي SD] للانضمام إلى المجموعة لمناقشة المشكلات الفنية المختلفة ومشاركة نتائج التطبيق↓

معلومات الاستشهاد

معلومات الاستشهاد لهذا المشروع هي كما يلي:

@article{gong2025diffucoder,
  title={DiffuCoder: Understanding and Improving Masked Diffusion Models for Code Generation},
  author={Shansan Gong, Ruixiang Zhang, Huangjie Zheng, Jiatao Gu, Navdeep Jaitly, Lingpeng Kong, Yizhe Zhang},
  year={2025},
  eprint={2506.20639},
  archivePrefix={arXiv},
  primaryClass={cs.CL},
  url={https://arxiv.org/abs/2506.20639},
}