Ensemble De Données post-formation Llama-Nemotron Ensemble De Données post-formation
Date
URL de publication
URL de l'article
Licence
CC BY 4.0
Llama-Nemotron-Post-Training-Dataset est un ensemble de données post-formation à grande échelle, open source par NVIDIA en 2025. Les résultats de l'article associé sont «Llama-Nemotron : modèles de raisonnement efficaces", qui vise à améliorer les capacités mathématiques, de code, de raisonnement général et d'instruction des modèles de la série Llama-Nemotron dans la phase post-formation (comme SFT et RL).
Cet ensemble de données combine les données des phases de réglage fin supervisé (SFT) et d'apprentissage par renforcement (RL). La version actuelle, v1.1 (qui ajoute environ 2,2 millions d'échantillons mathématiques et 500 000 échantillons de raisonnement de code par rapport à la version précédente), est adaptée à l'entraînement des agents d'IA, des chatbots, des systèmes RAG et d'autres applications pilotées par l'IA.
Répartition des données (par nombre d'entrées de catégorie)
- Mathématiques : 22 066 397
- Code : 10 108 883
- Sciences : 708 920
- Instruction suivante : 56 339
- Chat : 39 792
- Sécurité : 31 426