HyperAIHyperAI

Command Palette

Search for a command to run...

il y a 2 jours

DisCO : Renforcer les grands modèles de raisonnement par une optimisation contrainte discriminante

Gang Li Ming Lin Tomer Galanti Zhengzhong Tu Tianbao Yang

DisCO : Renforcer les grands modèles de raisonnement par une optimisation contrainte discriminante

Résumé

La récente réussite et la transparence de DeepSeek-R1 ont attiré une large attention sur l’optimisation politique relative par groupe (GRPO), une méthode d’apprentissage par renforcement destinée aux grands modèles de raisonnement (LRM). Dans ce travail, nous analysons l’objectif GRPO dans un cadre à récompense binaire et mettons en évidence une limitation intrinsèque liée au biais de difficulté au niveau des questions. Nous identifions également un lien entre GRPO et les méthodes discriminatives classiques de l’apprentissage supervisé. Inspirés par ces observations, nous proposons un nouveau cadre d’optimisation contrainte discriminative, nommé DisCO, conçu pour renforcer les LRMs selon le principe fondamental de l’apprentissage discriminatif. Les principales différences entre DisCO et GRPO ainsi que ses variantes récentes sont les suivantes : (1) il remplace l’objectif relatif par groupe par un objectif discriminatif défini à partir d’une fonction de notation ; (2) il abandonne les approximations basées sur le clipping au profit d’objectifs de substitution en apprentissage par renforcement sans clipping, utilisés comme fonctions de notation ; (3) il adopte une approche simple mais efficace d’optimisation contrainte pour imposer la contrainte sur la divergence de Kullback-Leibler (KL). En conséquence, DisCO présente des avantages significatifs par rapport à GRPO et à ses variantes : (i) il élimine complètement le biais de difficulté grâce à l’utilisation d’objectifs discriminatifs ; (ii) il résout le problème d’instabilité de l’entropie observé dans GRPO et ses variantes, grâce à l’emploi de fonctions de notation sans clipping et à une approche d’optimisation contrainte, conduisant à des dynamiques d’entraînement longues et stables ; (iii) il permet l’intégration de techniques avancées d’apprentissage discriminatif afin de traiter l’imprégnation des données, notamment lorsque, pendant l’entraînement, un grand nombre de questions génèrent davantage de réponses négatives que positives. Nos expériences visant à améliorer les capacités de raisonnement mathématique des modèles pré-entraînés par fine-tuning supervisé (SFT) montrent que DisCO surpasse significativement GRPO et ses variantes améliorées telles que DAPO, obtenant des gains moyens de 7 % par rapport à GRPO et de 6 % par rapport à DAPO sur six tâches de référence, pour un modèle de 1,5 milliard de paramètres.

Dépôts de code

optimization-ai/disco
Officiel
pytorch
Mentionné dans GitHub

Construire l'IA avec l'IA

De l'idée au lancement — accélérez votre développement IA avec du co-codage IA gratuit, un environnement prêt à l'emploi et les meilleurs prix GPU.

Co-codage IA
GPU prêts à utiliser
Meilleurs prix
Commencer

Hyper Newsletters

Abonnez-vous à nos dernières mises à jour
Nous vous enverrons les dernières mises à jour de la semaine dans votre boîte de réception à neuf heures chaque lundi matin
Propulsé par MailChimp
DisCO : Renforcer les grands modèles de raisonnement par une optimisation contrainte discriminante | Articles de recherche | HyperAI