Hochwertige Reasoning-Datensätze Aus Den Bereichen Mathematik, Code, Wissenschaft Und Rätsel Werden Zusammengefasst, Um Die Leistungsstarken Reasoning-Funktionen Von DeepSeek Zu Reproduzieren.

In letzter Zeit ist die Begeisterung für Schlussfolgerungsmodelle, die durch DeepSeek-R1 ausgelöst wurde, weiterhin auf dem Vormarsch. Am 31. Januar hat OpenAI ein neues Reasoning-Modell o3-mini herausgebracht. Am 18. Februar hat xAI Grok 3 herausgebracht, einschließlich Grok-3 Reasoning Beta und Grok-3 mini Reasoning mit Schlussfolgerungsfunktionen. Am 25. Februar hat Anthropic sein erstes hybrides Denkmodell Claude 3.7 Sonnet herausgebracht.
Tatsächlich ist die Argumentationsfähigkeit im Kontext zunehmender Homogenität und des harten Wettbewerbs zwischen großen Modellen zu einem wichtigen Indikator für die Messung ihrer Leistung geworden und stellt auch eine wichtige Entwicklungsrichtung für die KI auf dem Weg zur AGI dar. Wenn die Obergrenze der Algorithmusoptimierung allmählich erreicht wird und die Modellparameter allmählich bis zum Limit komprimiert werden,Die Qualität der Daten ist zu einem der Schlüsselfaktoren geworden, die bestimmen, ob das Modell vom einfachen „Antwortgedächtnis“ zum tiefen „logischen Denken“ übergehen kann.
Die Erstellung eines Inferenzdatensatzes ist weit mehr als nur eine Aneinanderreihung von Fragen. Um zu verhindern, dass das Modell während des Trainings Informationen verliert und während des Tests betrügt, müssen die Daten zwischen dem Testsatz und dem Trainingssatz strikt isoliert werden und es muss ein dynamischer Aktualisierungsmechanismus eingeführt werden, um die Fragetypen regelmäßig zu aktualisieren. Bei komplexen Aufgaben wie mathematischen Beweisen und Codegenerierung ist es erforderlich, beim Erstellen von Datensätzen mehrere logische Ketten sorgfältig zu entwerfen, versteckte Fallenbedingungen geschickt festzulegen und den Versuch-und-Irrtum- sowie Denkprozess des Menschen bei der Problemlösung so weit wie möglich zu simulieren, um dem Modell Lernmaterialien bereitzustellen, die näher an realen Anwendungsszenarien liegen.
Die herausragende Leistung von DeepSeek beim AIME-Mathematikwettbewerb ist ein anschauliches Beispiel. Es basiert auf dem OpenThoughts-114k-Datensatz.Es umfasst eine Reihe von Problemen, die eine schrittweise Deduktion erfordern und mehrere logische Ketten beinhalten.Durch einen strengen Verifizierungsmechanismus und eine geschickt angeordnete mehrstufige Argumentationsstruktur werden die Genauigkeit und Zuverlässigkeit der Daten gewährleistet, während das Modell gleichzeitig tiefere Argumentationsfähigkeiten erlernen kann, anstatt sich bei der Beantwortung von Fragen ausschließlich auf sein „Gedächtnis“ zu verlassen.
Zusammenfassend lässt sich sagen, dass der Erfolg von DeepSeek zu einem Anstieg der Aufmerksamkeit der Branche für qualitativ hochwertige Reasoning-Datensätze geführt hat. Nächste,HyperAI hat für Sie einige der beliebtesten Datensätze zum folgerichtigen Denken zusammengestellt, die mehrere Bereiche wie Mathematik, Code, Wissenschaft und Rätsel abdecken.Für Praktiker und Forscher, die die Argumentationsfähigkeiten großer Modelle erheblich verbessern möchten, sind diese Datensätze zweifellos ein hervorragender Ausgangspunkt.
Klicken Sie hier, um weitere Open-Source-Datensätze anzuzeigen:
Zusammenfassung des Inferenzdatensatzes
1. OpenThoughts-114k Reasoning-Datensatz
Geschätzte Größe:922,07 MB
Downloadadresse:https://go.hyper.ai/SaAit
Der Datensatz wurde 2025 von Open Thoughts veröffentlicht, konzentriert sich auf Bereiche wie Mathematik, Code, Wissenschaft und Rätsel und enthält 114.000 hochwertige Beispiele. Ziel ist es, kleine Inferenzmodelle so zu trainieren, dass sie bei mathematischen Aufgaben und Code-Reasoning-Aufgaben die Leistung bestehender großer Modelle (wie DeepSeek-R1-Distill-Qwen-32B und DeepSeek-R1-Distill-Qwen-7B) übertreffen.
2. Maßgeschneiderter Stratos-17k-Datensatz für logisches Denken
Geschätzte Größe:125 MB
Downloadadresse:https://go.hyper.ai/nLGos
Bei diesem Datensatz handelt es sich um einen hochwertigen Datensatz, der speziell für logische Denkaufgaben entwickelt wurde. Es enthält Fragen, Argumentationslinien und Antworten, die mehrere Bereiche wie Code, Mathematik und wissenschaftliche Rätsel abdecken, und zielt darauf ab, das Training leistungsstarker Argumentationsmodelle zu unterstützen. Der Datensatz besteht aus 3 Teilen:
* Programmierdaten: 5.000 Datensätze aus APPs und TACO * Mathematische Daten: 10.000 Datensätze aus den Teilmengen AIME, MATH und Olympiads des NuminaMATH-Datensatzes
* Wissenschaftliche und Rätseldaten: 1.000 Datenpunkte von STILL-2
3. Dolphin-R1-Inferenzdatensatz
Geschätzte Größe:2,24 GB
Downloadadresse:https://go.hyper.ai/grwUo
Der Dolphin-R1-Inferenzdatensatz enthält etwa 800.000 Proben. Die Datenquellen umfassen 200.000 Beispiele von DeepSeek-R1, Gemini Flash und Dolphin Chat. Ziel ist es, qualitativ hochwertige Beispiele für das Training von Inferenzmodellen ähnlich wie DeepSeek-R1 bereitzustellen. Diese Beispiele werden hauptsächlich verwendet, um die Leistung des Modells bei Denkaufgaben zu verbessern und decken komplexe Aufgaben wie Mathematik, Logik und Codierung ab.
4. LIMO-Benchmark-Datensatz für mathematisches Denken
Geschätzte Größe:4,22 MB
Downloadadresse:https://go.hyper.ai/0p72o
Der LIMO-Benchmark-Datensatz zum mathematischen Denken enthält nur 817 hochwertige Beispiele zum mathematischen Denken. Ziel ist es, die mathematische Denkfähigkeit großer Modelle durch die sorgfältige Auswahl hochwertiger Trainingsbeispiele zu trainieren und zu bewerten. Dieser Datensatz wird hauptsächlich verwendet, um die mathematische Problemlösungsfähigkeit großer Modelle zu trainieren und ihre Leistung in mathematischen Prüfungen und Wettbewerbsfragen (wie AIME, MATH-500 usw.) zu verbessern.
5. NuminaMath-1.5-Datensatz für mathematisches Denken
Geschätzte Größe:446,62 MB
Downloadadresse:https://go.hyper.ai/qVAgO
Der Datensatz zum mathematischen Denken NuminaMath-1.5 eignet sich für die Bereiche Mathematikunterricht und Wettbewerbsprobleme. Es enthält etwa 900.000 hochwertige mathematische Probleme auf Wettbewerbsniveau und die Lösung für jedes Problem liegt im Chain of Thought (CoT)-Format vor. Diese Probleme basieren auf Mathematikübungen an chinesischen weiterführenden Schulen sowie auf Wettbewerbsfragen der amerikanischen und internationalen Mathematikolympiade.
6. OpenR1-Math-220k-Datensatz für mathematisches Denken
Geschätzte Größe:8,44 GB
Downloadadresse:https://go.hyper.ai/nuhSv
OpenR1-Math-220k ist ein umfangreicher Datensatz zum mathematischen Denken, der 2025 vom Open R1-Team veröffentlicht wurde, um die Lücke in den synthetischen Daten von DeepSeek R1 zu schließen. Der Datensatz enthält 220.000 hochwertige mathematische Probleme und ihre Argumentationstrajektorien, die aus 800.000 von DeepSeek R1 generierten Argumentationstrajektorien abgeleitet sind.
7. Chinesische DeepSeek R1-Destillationsdaten
Geschätzte Größe:376 MB
Downloadadresse:https://go.hyper.ai/8Podu
Dieser Datensatz ist ein chinesischer Open-Source-destillierter Vollblut-R1-Datensatz. Der Datensatz enthält nicht nur mathematische Daten, sondern auch eine große Menge allgemeiner Daten mit einer Gesamtmenge von 110 KB. Dazu gehören:
* Mathematik: 36.987 Proben
* Prüfung: 2.440 Proben
* STEM: 12.000 Proben
* Allgemein: 58.573 Beispiele, einschließlich Retarded Bar, Logical Reasoning, Xiaohongshu, Zhihu, Chat usw.
Oben ist der von HyperAI zusammengestellte Inferenzdatensatz. Wenn Sie über Ressourcen verfügen, die Sie auf der offiziellen Website von hyper.ai veröffentlichen möchten, können Sie uns gerne eine Nachricht hinterlassen oder einen Beitrag einreichen, um uns davon zu erzählen!
Über HyperAI
HyperAI (hyper.ai) ist eine führende Community für künstliche Intelligenz und Hochleistungsrechnen in China.Wir haben uns zum Ziel gesetzt, die Infrastruktur im Bereich der Datenwissenschaft in China zu werden und inländischen Entwicklern umfangreiche und qualitativ hochwertige öffentliche Ressourcen bereitzustellen. Bisher haben wir:
* Bereitstellung von inländischen beschleunigten Download-Knoten für über 1200 öffentliche Datensätze
* Enthält über 300 klassische und beliebte Online-Tutorials
* Interpretation von über 100 AI4Science-Papierfällen
* Unterstützt die Suche nach über 500 verwandten Begriffen
* Hosting der ersten vollständigen chinesischen Apache TVM-Dokumentation in China
Besuchen Sie die offizielle Website, um Ihre Lernreise zu beginnen: