HyperAIHyperAI

Llama-Nemotron-Post-Training-Dataset Post-Training-Datensatz

Datum

vor einem Monat

Organisation

NVIDIA

Veröffentlichungs-URL

huggingface.co

Paper-URL

2505.00949

Lizenz

CC BY 4.0

Download-Hilfe

Llama-Nemotron-Post-Training-Dataset ist ein umfangreicher Post-Training-Datensatz, der 2025 von NVIDIA als Open Source bereitgestellt wird. Die zugehörigen Ergebnisse des Papiers lauten:Llama-Nemotron: Effiziente Denkmodelle", dessen Ziel darin besteht, die Mathematik-, Code-, allgemeinen Argumentations- und Anweisungsfolgefähigkeiten der Modelle der Llama-Nemotron-Reihe in der Phase nach dem Training (wie SFT und RL) zu verbessern.

Dieser Datensatz kombiniert Daten aus den Phasen des überwachten Feintunings (SFT) und des bestärkenden Lernens (RL). Die aktuelle Version v1.1 (die im Vergleich zur vorherigen Version etwa 2,2 Millionen mathematische Beispiele und 500.000 Code-Reasoning-Beispiele hinzufügt) eignet sich für das Training von KI-Agenten, Chatbots, RAG-Systemen und anderen KI-gesteuerten Anwendungen.

Datenverteilung (nach Anzahl der Kategorieeinträge)

  • Mathematik: 22.066.397
  • Code: 10.108.883
  • Wissenschaft: 708.920
  • Anweisung folgt: 56.339
  • Chat: 39.792
  • Sicherheit: 31.426