NVIDIA veröffentlicht leistungsfähige kleinere LLMs für komplexe Aufgaben
NVIDIA stellt OpenReasoning-Nemotron vor: Eine Reihe von LLMs mit verbesserten Schlußfähigen, abgeleitet vom DeepSeek R1 0528 NVIDIA AI hat kürzlich OpenReasoning-Nemotron vorgestellt, eine Familie von großen Sprachmodellen (LLMs), die in komplexen Schlußfähigkeiten in den Bereichen Mathematik, Wissenschaft und Programmierung hervorragt. Die Modellreihe umfasst Versionen mit 1,5 Milliarden, 7 Milliarden, 14 Milliarden und 32 Milliarden Parametern, die jeweils aus dem massiven 671-Milliarden-Parameter-Modell DeepSeek R1 0528 abgeleitet wurden. Dieser Prozess ermöglicht es, die hochentwickelten Schlußfähigkeiten des DeepSeek R1 in kompakteren und effizienteren Modellen zu erfassen. Die Veröffentlichung positioniert NVIDIA als führenden Beitragenden zum Ökosystem offener LLMs, indem sie Modelle bereitstellt, die den Stand der Technik (SOTA) in Schlußfähigkeitsaufgaben übertreffen, gleichzeitig aber kommerziell lizenzierbar und über Hugging Face leicht zugänglich sind. Modellübersicht und Architektur ✅ Distillierungsprozess aus DeepSeek R1 0528 (671B) Das Kernstück von OpenReasoning-Nemotron ist ein Distillierungsstrategie, die die Schlußfähigkeiten des DeepSeek R1 in kleinere Architekturen transferiert. Dabei wird die Generalisierung der Schlußfähigkeit gegenüber der reinen Token-Vorhersage priorisiert, was es kleineren Modellen ermöglicht, effektiv bei strukturierten und hochkognitiven Aufgaben zu performen. Das Distillierungsdataset legt den Fokus auf Mathematik, Wissenschaft und Programmiersprachen, um die Modellfähigkeiten in Schlüsselbereichen der Schlußfähigkeit zu optimieren. Modellvarianten und Spezifikationen | Modellname | Parameter | Intendierte Verwendung | Hugging Face Seite | |------------|-----------|-----------------------|-------------------| | OpenReasoning-Nemotron-1.5B | 1,5 Mrd. | Einstiegsniveau für Schlußfähigkeit und Inferenz | Link | | OpenReasoning-Nemotron-7B | 7 Mrd. | Mittelgroße Schlußfähigkeit, geeignet für Code/Mathematik | Link | | OpenReasoning-Nemotron-14B | 14 Mrd. | Fortgeschrittene Schlußfähigkeiten | Link | | OpenReasoning-Nemotron-32B | 32 Mrd. | Nahezu vorne stehende Leistung bei logisch intensiven Aufgaben | Link | Alle Modelle sind mit Transformer-Architekturen kompatibel, unterstützen FP16/INT8 Quantisierung und sind für NVIDIA GPUs und die NeMo Frameworks optimiert. Leistungsbenchmarks Die OpenReasoning-Nemotron-Modelle erzielen bessere Ergebnisse als ihre gleichgroßen Konkurrenten in einer Vielzahl von Schlußfähigkeitsspezifischen Benchmarks, insbesondere in: GSM8K Genauigkeit: 66,7% (7B), 72,9% (14B), 77,5% (32B) HumanEval Pass@1: 34,2% (7B), 42,0% (14B), 49,5% (32B) ARC-Challenge: 77,3% (7B), 80,1% (14B), 83,9% (32B) MATH: 40,5% (7B), 47,6% (14B), 52,3% (32B) Alle Metriken repräsentieren die besten Bewertungen unter 0-Schuss- oder wenige-Schuss-Einstellungen. Diese Ergebnisse übertreffen die Leistungen von LLaMA2, Mixtral und DeepSeek-Coder in ähnlicher Größenordnung, was die Stärke der schlußfähigkeitsfokussierten Distillierungs Methode unterstreicht. Trainingsdaten und Schlußfähigkeitsspezialisierung Das Trainingskorpus ist eine hochwertige, distillierte Teilmenge des DeepSeek R1 0528 Datasets. Wesentliche Merkmale sind: Sorgfältig currierte, hochwertige Ausgaben von DeepSeek R1, die als Leitlinien für das Training kleinerer Modelle dienen. Ein auf Schlußfähigkeit fokussiertes Dataset, das symbolische und mehrschrittige Logik betont. Diese sorgfältige Auswahl stellt sicher, dass die Modelle starke Anpassungen an realweltliche Schlußfähigkeitsprobleme sowohl in akademischen als auch in angewandten ML-Bereichen bieten. Offene Lizenz und Ökosystemintegration Alle vier OpenReasoning-Nemotron-Modelle werden unter einer offenen und kommerziell lizenzierbaren Lizenz veröffentlicht. Modulkarten, Evaluierungsskripte und inferenzbereite Gewichte sind auf Hugging Face verfügbar. Diese Modelle sind in den NVIDIA NeMo-Framework integrierbar und unterstützen Toolchains wie TensorRT-LLM, ONNX und Hugging Face Transformers, was eine schnelle Bereitstellung in Produktions- und Forschungsumgebungen erleichtert. Wichtige Anwendungsbereiche Mathematik und Wissenschaft: Ideale Basis für fortgeschrittene Recherchen und Anwendungen, die komplexe mathematische und wissenschaftliche Probleme lösen müssen. Programmierung: Optimiert für die Generierung von Code und mathematischen Lösungen, was Softwareentwicklern und Ingenieuren nützlich sein kann. Forschung und Entwicklung: Geeignet für Unternehmen und Forschungseinrichtungen, die logisch intensive AI-Anwendungen entwickeln. Fazit Die OpenReasoning-Nemotron-Modelle von NVIDIA bieten einen praxisnahen, opensource-freundlichen Weg, um die Schlußfähigkeit ohne die Kosten von Grenztechnologie auszubauen. Durch die Distillierung aus dem 671-Milliarden-Parameter-Modell DeepSeek R1 und den Fokus auf Schlüsselbereiche der Schlußfähigkeit liefern diese Modelle ein leistungsfähiges Gleichgewicht aus Genauigkeit, Effizienz und Zugänglichkeit. Für Entwickler, Forscher und Unternehmen, die sich mit logisch intensiven AI-Anwendungen befassen, bietet OpenReasoning-Nemotron eine attraktive Grundlage, die die üblichen Kompromisse bei proprietären oder allgemeinen Modellen vermeidet. Häufig gestellte Fragen (FAQs) Was ist der Unterschied zwischen OpenReasoning-Nemotron und allgemeinen LLMs wie LLaMA oder Mixtral? OpenReasoning-Nemotron-Modelle werden speziell distilliert, um die Schlußfähigkeit in Mathematik, Wissenschaft und Programmierung zu verbessern. Während LLaMA und Mixtral auf breiten Web-Korpora trainiert werden, legen OpenReasoning-Modelle den Fokus auf symbolische und mehrschrittige Logik und erzielen bessere Ergebnisse in domänenspezifischen Schlußfähigkeitstests. Wie wurden diese Modelle aus dem 671-Milliarden-Parameter-Modell DeepSeek R1 0528 distilliert? Der Distillierungsprozess nutzt hochwertige Ausgaben des DeepSeek R1, um kleinere Modelle während des Trainings zu leiten. Dies beinhaltet ein auf Schlußfähigkeit fokussiertes Dataset und promptbasiertes Training, das es den kleineren Nemotron-Varianten ermöglicht, das Schlußverhalten eines viel größeren Modells nachzubilden. Eignen sich die OpenReasoning-Nemotron-Modelle für kommerzielle Nutzung? Ja. Alle Modelle der Reihe werden unter einer kommerziell lizenzierbaren Lizenz veröffentlicht und können in Unternehmensumgebungen mithilfe der NVIDIA NeMo-, TensorRT-LLM- oder Hugging Face Transformers-Toolkits bereitgestellt werden. Welche Modellgröße sollte ich für meine Anwendung verwenden? Die Wahl der Modellgröße hängt von den spezifischen Anforderungen Ihrer Anwendung ab. Für einfache Anwendungen ist das 1,5-Milliarden-Parameter-Modell ausreichend, während anspruchsvollere Aufgaben die Verwendung des 7-Milliarden-, 14-Milliarden- oder 32-Milliarden-Parameter-Modells erfordern. Weitere technische Details finden Sie auf der Hugging Face-Seite. Für dieses Forschungsprojekt sind die Forscher vollständig zu verdanken. Sponsoring-Möglichkeit: Erreichen Sie die einflussreichsten AI-Entwickler in den USA und Europa. Über 1 Million monatliche Leser, über 500.000 Community-Builder, unendliche Möglichkeiten. [Sponsoring erkunden]