HyperAI

Déploiement En Un Clic De DeepCoder-14B-Preview

GitHub
Étoiles
MIT

1. Introduction au tutoriel

Le projet DeepCoder-14B-Preview est un modèle d'encodage 14B publié par AGENTICA le 8 avril 2025. Le modèle est affiné à partir de DeepSeek-R1-Distilled-Qwen-14B LLM pour le raisonnement de code et s'adapte à de longues longueurs de contexte à l'aide de l'apprentissage par renforcement distributionnel (RL). Le modèle atteint une précision Pass@1 de 60,6% sur LiveCodeBench v5 (8/1/24-2/1/25), une amélioration de 8% par rapport au modèle de base (53%), et atteint des performances similaires à celles de l'o3-mini d'OpenAI avec seulement 14B paramètres.

Ce tutoriel utilise le modèle DeepCoder-14B-Preview comme cas de démonstration et adopte la méthode de quantification 8 bits fournie par bitsandbytes pour optimiser l'utilisation de la mémoire vidéo. Il convient de noter que cette méthode de quantification peut avoir un certain impact sur les performances du modèle. La ressource de puissance de calcul utilisée est RTX4090.

2. Étapes de l'opération

1. Après avoir démarré le conteneur, cliquez sur l'adresse API pour accéder à l'interface Web

Si « Bad Gateway » s'affiche, cela signifie que le modèle est en cours d'initialisation. Veuillez patienter environ 1 à 2 minutes et actualiser la page.

2. Démonstration fonctionnelle

Si l'erreur « Erreur : HTTPConnectionPool(host="localhost, port=8000) : Nombre maximal de tentatives dépassé avec l'URL : /v1/completions » s'affiche comme indiqué ci-dessous, cela signifie que le modèle est en cours d'initialisation. Veuillez patienter 1 à 2 minutes, puis actualisez la page.

Informations sur la citation

Merci à l'utilisateur de GitHub SuperYang  Pour la réalisation de ce tutoriel, les informations de référence du projet sont les suivantes :

@misc{deepcoder2025,
  title={DeepCoder: A Fully Open-Source 14B Coder at O3-mini Level},
  author={Michael Luo, Sijun Tan, Roy Huang, Xiaoxiang Shi, Rachel Xin, Colin Cai, Ameen Patel, Alpay Ariyak, Qingyang Wu, Ce Zhang, Li Erran Li, Raluca Ada Popa, Ion Stoica},
  howpublished={\url{https://pretty-radio-b75.notion.site/DeepCoder-A-Fully-Open-Source-14B-Coder-at-O3-mini-Level-1cf81902c14680b3bee5eb349a512a51}},
  note={Notion Blog},
  year={2025}
}

@misc{deepscaler2025,
  title={DeepScaleR: Surpassing O1-Preview with a 1.5B Model by Scaling RL},
  author={Michael Luo and Sijun Tan and Justin Wong and Xiaoxiang Shi and William Y. Tang and Manan Roongta and Colin Cai and Jeffrey Luo and Li Erran Li and Raluca Ada Popa and Ion Stoica},
  year={2025},
  howpublished={\url{https://pretty-radio-b75.notion.site/DeepScaleR-Surpassing-O1-Preview-with-a-1-5B-Model-by-Scaling-RL-19681902c1468005bed8ca303013a4e2}},
  note={Notion Blog}
  year={2025}
}

Échange et discussion

🖌️ Si vous voyez un projet de haute qualité, veuillez laisser un message en arrière-plan pour le recommander ! De plus, nous avons également créé un groupe d’échange de tutoriels. Bienvenue aux amis pour scanner le code QR et commenter [Tutoriel SD] pour rejoindre le groupe pour discuter de divers problèmes techniques et partager les résultats de l'application↓