Command Palette
Search for a command to run...
ReasonMed : Un Jeu de Données Généré par 370 000 Agents Multiples pour l’Avancement du Raisonnement Médical
ReasonMed : Un Jeu de Données Généré par 370 000 Agents Multiples pour l’Avancement du Raisonnement Médical
Yu Sun Xingyu Qian Weiwen Xu Hao Zhang Chenghao Xiao Long Li Yu Rong Wenbing Huang Qifeng Bai Tingyang Xu
Résumé
Bien que les grands modèles de langage basés sur la raisonnement (LLMs) aient excelé en mathématiques et en programmation, leurs capacités dans le domaine des réponses à des questions médicales intensives en connaissances restent sous-exploitées. Pour remédier à cette situation, nous présentons ReasonMed, le plus grand ensemble de données médical de raisonnement, composé de 370 000 exemples de haute qualité extraits de 1,7 million de chemins de raisonnement initiaux générés par divers LLMs. ReasonMed est construit à travers un processus de vérification et d'affinement multi-agents, où nous avons conçu un Affineur d'Erreurs pour améliorer les chemins de raisonnement en identifiant et corrigeant les étapes sujettes aux erreurs signalées par un vérificateur. En utilisant ReasonMed, nous menons une enquête systématique sur les meilleures pratiques pour l'entraînement des modèles de raisonnement médical et constatons que la combinaison d'un raisonnement détaillé par chaîne de pensée (Chain-of-Thought - CoT) avec des résumés concis des réponses offre la stratégie d'ajustement fin le plus efficace. Sur la base de cette stratégie, nous entraînons ReasonMed-7B, qui établit un nouveau standard pour les modèles inférieurs à 10 milliards de paramètres, surpassant le meilleur modèle précédent de 4,17 % et même dépassant LLaMA3.1-70B sur PubMedQA de 4,60 %.