Couvrant Les Mathématiques/le Code/les Sciences/les Puzzles, Des Ensembles De Données De Raisonnement De Haute Qualité Sont Résumés Pour Aider À Reproduire Les Puissantes Capacités De Raisonnement De DeepSeek

Récemment, l’engouement pour les modèles de raisonnement déclenché par DeepSeek-R1 est toujours en hausse. Le 31 janvier, OpenAI a lancé un nouveau modèle de raisonnement o3-mini. Le 18 février, xAI a lancé Grok 3, comprenant Grok-3 Reasoning Beta et Grok-3 mini Reasoning avec des capacités de raisonnement. Le 25 février, Anthropic a lancé son premier modèle de raisonnement hybride Claude 3.7 Sonnet.
En effet, dans un contexte d’homogénéité croissante et de concurrence féroce entre les grands modèles, la capacité de raisonnement est devenue un indicateur important pour mesurer ses performances, et c’est également une direction de développement importante pour l’IA pour progresser vers l’AGI. À mesure que le plafond de l’optimisation des algorithmes émerge progressivement et que les paramètres du modèle sont progressivement comprimés jusqu’à la limite,La qualité des données est devenue l’un des facteurs clés pour déterminer si le modèle peut passer d’une simple « mémoire de réponses » à un « raisonnement logique » approfondi.
La construction d’un ensemble de données d’inférence est loin d’être une simple pile de questions. Afin d'éviter que le modèle ne divulgue des informations pendant l'entraînement et ne triche pendant les tests, les données doivent être strictement isolées entre l'ensemble de test et l'ensemble d'entraînement, et un mécanisme de mise à jour dynamique doit être introduit pour mettre à jour régulièrement les types de questions. Lorsqu'il s'agit de tâches complexes telles que les preuves mathématiques et la génération de code, il est nécessaire de concevoir soigneusement plusieurs chaînes logiques lors de la création d'ensembles de données, de définir intelligemment des conditions de pièges cachés et de simuler autant que possible le processus d'essais et d'erreurs et de réflexion des humains dans la résolution de problèmes, afin de fournir au modèle des supports d'apprentissage plus proches des scénarios d'application réels.
La performance exceptionnelle de DeepSeek au concours de mathématiques AIME en est un exemple frappant. Il s'appuie sur l'ensemble de données OpenThoughts-114k.Il couvre une série de problèmes qui nécessitent une déduction étape par étape et impliquent plusieurs chaînes logiques.Grâce à un mécanisme de vérification strict et à une structure de raisonnement en plusieurs étapes intelligemment organisée, l'exactitude et la fiabilité des données sont garanties tout en permettant au modèle d'acquérir des capacités de raisonnement plus approfondies au lieu de s'appuyer uniquement sur la « mémoire » pour répondre aux questions.
En résumé, le succès de DeepSeek a conduit à une augmentation de l’attention de l’industrie envers les ensembles de données de raisonnement de haute qualité. Suivant,HyperAI a compilé pour vous certains des ensembles de données de raisonnement les plus populaires, couvrant plusieurs domaines tels que les mathématiques, le code, la science et les énigmes.Pour les praticiens et les chercheurs qui souhaitent améliorer considérablement les capacités de raisonnement des grands modèles, ces ensembles de données constituent sans aucun doute un excellent point de départ.
Cliquez pour voir plus d'ensembles de données open source :
Résumé de l'ensemble de données d'inférence
1. Ensemble de données de raisonnement OpenThoughts-114k
Taille estimée :922,07 Mo
Adresse de téléchargement :https://go.hyper.ai/SaAit
L'ensemble de données a été publié par Open Thoughts en 2025, se concentrant sur des domaines tels que les mathématiques, le code, la science et les énigmes, et contient 114 000 échantillons de haute qualité. Vise à former de petits modèles d'inférence pour surpasser les grands modèles existants (tels que DeepSeek-R1-Distill-Qwen-32B et DeepSeek-R1-Distill-Qwen-7B) sur les tâches de raisonnement mathématique et de code.
2. Ensemble de données de tâches de raisonnement Bespoke-Stratos-17k
Taille estimée :125 Mo
Adresse de téléchargement :https://go.hyper.ai/nLGos
Cet ensemble de données est un ensemble de données de haute qualité conçu spécifiquement pour les tâches de raisonnement. Il contient des questions, des traces de raisonnement et des réponses, couvrant plusieurs domaines tels que le code, les mathématiques et les énigmes scientifiques, et vise à soutenir la formation de modèles de raisonnement hautes performances. L'ensemble de données se compose de 3 parties :
* Données de programmation : 5 000 enregistrements provenant d'APP et de TACO * Données mathématiques : 10 000 enregistrements provenant des sous-ensembles AIME, MATH et Olympiades de l'ensemble de données NuminaMATH
* Données scientifiques et énigmes : 1 000 points de données de STILL-2
3. Ensemble de données d'inférence Dolphin-R1
Taille estimée :2,24 Go
Adresse de téléchargement :https://go.hyper.ai/grwUo
L'ensemble de données d'inférence Dolphin-R1 contient environ 800 000 échantillons. Les sources de données comprennent 200 000 échantillons fournis par DeepSeek-R1, Gemini Flash et Dolphin Chat. Son objectif est de fournir des échantillons de haute qualité pour la formation de modèles d'inférence similaires à DeepSeek-R1. Ces échantillons sont principalement utilisés pour améliorer les performances du modèle dans les tâches de raisonnement, couvrant des tâches complexes telles que les mathématiques, la logique et le codage.
4. Ensemble de données de référence de raisonnement mathématique LIMO
Taille estimée :4,22 Mo
Adresse de téléchargement :https://go.hyper.ai/0p72o
L'ensemble de données de référence de raisonnement mathématique LIMO ne contient que 817 échantillons de raisonnement mathématique de haute qualité. Son objectif est de former et d’évaluer la capacité de raisonnement mathématique de grands modèles en sélectionnant soigneusement des échantillons de formation de haute qualité. Cet ensemble de données est principalement utilisé pour former la capacité de résolution de problèmes mathématiques des grands modèles et améliorer leurs performances aux examens mathématiques et aux questions de concours (tels que AIME, MATH-500, etc.).
5. Ensemble de données de raisonnement mathématique NuminaMath-1.5
Taille estimée :446,62 Mo
Adresse de téléchargement :https://go.hyper.ai/qVAgO
L'ensemble de données de raisonnement mathématique NuminaMath-1.5 convient aux domaines de l'enseignement des mathématiques et des problèmes de concurrence. Il contient environ 900 000 problèmes mathématiques de niveau compétition de haute qualité, et la solution à chaque problème est au format Chain of Thought (CoT). Ces problèmes sont dérivés d'exercices de mathématiques de lycée chinois et de questions de compétitions d'Olympiades mathématiques américaines et internationales.
6. Ensemble de données de raisonnement mathématique OpenR1-Math-220k
Taille estimée :8,44 Go
Adresse de téléchargement :https://go.hyper.ai/nuhSv
OpenR1-Math-220k est un ensemble de données de raisonnement mathématique à grande échelle publié par l'équipe Open R1 en 2025 pour combler le vide dans les données synthétiques DeepSeek R1. L'ensemble de données contient 220 000 problèmes mathématiques de haute qualité et leurs trajectoires de raisonnement, qui sont dérivées de 800 000 trajectoires de raisonnement générées par DeepSeek R1.
7. Données chinoises DeepSeek R1 Distill
Taille estimée :376 Mo
Adresse de téléchargement :https://go.hyper.ai/8Podu
Cet ensemble de données est un ensemble de données R1 chinois open source distillé de sang complet. L'ensemble de données contient non seulement des données mathématiques, mais également une grande quantité de données de type général, avec un montant total de 110 000. Il s'agit notamment de :
* Mathématiques : 36 987 échantillons
* Examen : 2 440 échantillons
* STEM : 12 000 échantillons
* Général : 58 573 échantillons, y compris Retarded Bar, Logical Reasoning, Xiaohongshu, Zhihu, Chat, etc.
Ce qui précède est l'ensemble de données d'inférence compilé par HyperAI. Si vous avez des ressources que vous souhaitez inclure sur le site officiel hyper.ai, n'hésitez pas à laisser un message ou à soumettre une contribution pour nous le faire savoir !
À propos d'HyperAI
HyperAI (hyper.ai) est une communauté leader en matière d'intelligence artificielle et de calcul haute performance en Chine.Nous nous engageons à devenir l'infrastructure dans le domaine de la science des données en Chine et à fournir des ressources publiques riches et de haute qualité aux développeurs nationaux. Jusqu'à présent, nous avons :
* Fournir des nœuds de téléchargement accélérés nationaux pour plus de 1 200 ensembles de données publiques
* Comprend plus de 300 tutoriels en ligne classiques et populaires
* Interprétation de plus de 100 cas d'articles AI4Science
* Prise en charge de plus de 500 termes de recherche associés
* Hébergement de la première documentation complète d'Apache TVM en Chine
Visitez le site Web officiel pour commencer votre parcours d'apprentissage :