ReasonMed: مجموعة بيانات متعددة الوكلاء بحجم 370K لتطوير الاستدلال الطبي

رغم أن نماذج اللغات الكبيرة القائمة على الاستدلال (LLMs) قد أظهرت تفوقًا في الرياضيات والبرمجة، فإن قدراتها في الإجابة على الأسئلة الطبية المكثفة بالمعرفة لا تزال قليلة الدراسة. لمعالجة هذا، نقدم ReasonMed، وهو أكبر مجموعة بيانات للاستدلال الطبي، والتي تتكون من 370 ألف مثال عالي الجودة تم استخلاصها من 1.7 مليون مسار استدلال أولي تم إنشاؤه بواسطة نماذج اللغات الكبيرة المختلفة. يتم بناء ReasonMed من خلال عملية التحقق والتكرار متعددة الوكلاء، حيث نصمم مصححًا للأخطاء (Error Refiner) لتعزيز المسارات الاستدلالية من خلال تحديد وتصحيح الخطوات المعرضة للأخطاء التي يشير إليها مدقق (verifier). باستغلال ReasonMed، نقوم بدراسة منهجية لأفضل الممارسات لتدريب نماذج الاستدلال الطبي ونجد أن الجمع بين الاستدلال التفصيلي سلسلة الفكر (Chain-of-Thought - CoT) والإجابات الملخصة بشكل دقيق يعد استراتيجية التعديل الدقيق الأكثر فعالية. بناءً على هذه الاستراتيجية، قمنا بتدريب ReasonMed-7B، والذي يحدد معيارًا جديدًا للنماذج ذات الحجم أقل من 10 مليار معلمة، حيث يتفوق بنسبة 4.17٪ على أفضل النماذج السابقة ويتجاوز حتى LLaMA3.1-70B فيPubMedQA بنسبة 4.60٪.