Llama-Nemotron-Post-Training-Dataset Post-Training-Datensatz
Datum
Veröffentlichungs-URL
Paper-URL
Lizenz
CC BY 4.0
Llama-Nemotron-Post-Training-Dataset ist ein umfangreicher Post-Training-Datensatz, der 2025 von NVIDIA als Open Source bereitgestellt wird. Die zugehörigen Ergebnisse des Papiers lauten:Llama-Nemotron: Effiziente Denkmodelle", dessen Ziel darin besteht, die Mathematik-, Code-, allgemeinen Argumentations- und Anweisungsfolgefähigkeiten der Modelle der Llama-Nemotron-Reihe in der Phase nach dem Training (wie SFT und RL) zu verbessern.
Dieser Datensatz kombiniert Daten aus den Phasen des überwachten Feintunings (SFT) und des bestärkenden Lernens (RL). Die aktuelle Version v1.1 (die im Vergleich zur vorherigen Version etwa 2,2 Millionen mathematische Beispiele und 500.000 Code-Reasoning-Beispiele hinzufügt) eignet sich für das Training von KI-Agenten, Chatbots, RAG-Systemen und anderen KI-gesteuerten Anwendungen.
Datenverteilung (nach Anzahl der Kategorieeinträge)
- Mathematik: 22.066.397
- Code: 10.108.883
- Wissenschaft: 708.920
- Anweisung folgt: 56.339
- Chat: 39.792
- Sicherheit: 31.426