HyperAIHyperAI

Command Palette

Search for a command to run...

CoT-Self-Instruct : Construction de promts synthétiques de haute qualité pour les tâches de raisonnement et non de raisonnement

Ping Yu Jack Lanchantin Tianlu Wang Weizhe Yuan Olga Golovneva Ilia Kulikov et al

Résumé

Nous proposons CoT-Self-Instruct, une méthode de génération de données synthétiques qui incite les modèles linguistiques à raisonner et à planifier d'abord via une chaîne de raisonnement (Chain-of-Thought, CoT) à partir de tâches initiales données, puis à produire une nouvelle requête synthétique de qualité et de complexité similaires, destinée à l'entraînement des modèles linguistiques, suivie d'un filtrage des données de haute qualité à l'aide de métriques automatiques. Dans les tâches de raisonnement vérifiable, nos données synthétiques surpassent significativement les jeux de données d'entraînement existants, tels que s1k et OpenMathReasoning, sur les benchmarks MATH500, AMC23, AIME24 et GPQA-Diamond. Pour les tâches d'instruction suivie non vérifiables, notre méthode dépasse les performances des instructions humaines ou des prompts standard de self-instruct sur AlpacaEval 2.0 et Arena-Hard.


Créer de l'IA avec l'IA

De l'idée au lancement — accélérez votre développement IA avec le co-codage IA gratuit, un environnement prêt à l'emploi et le meilleur prix pour les GPU.

Codage assisté par IA
GPU prêts à l’emploi
Tarifs les plus avantageux

HyperAI Newsletters

Abonnez-vous à nos dernières mises à jour
Nous vous enverrons les dernières mises à jour de la semaine dans votre boîte de réception à neuf heures chaque lundi matin
Propulsé par MailChimp