HyperAI
منذ 18 أيام

التفكير الأولي: النماذج الأولية كأساس للتفكير القابل للتعميم في النماذج اللغوية الكبيرة (LLMs)

Feng He, Zijun Chen, Xinnian Liang, Tingting Ma, Yunqi Qiu, Shuangzhi Wu, Junchi Yan
التفكير الأولي: النماذج الأولية كأساس للتفكير القابل للتعميم في النماذج اللغوية الكبيرة (LLMs)
الملخص

التطورات الحديثة في نماذج التفكير الكبيرة (LRMs) التي تم تدريبها باستخدام التفكير الطويل المتسلسل (Long CoT) أظهرت قدرات تعميم متميزة عبر المجالات. ومع ذلك، فإن الآليات الأساسية التي تدعم هذا النقل لا تزال غير مفهومة بشكل جيد. نفترض أن التعميم عبر المجالات ينشأ من نماذج تفكير مجردة مشتركة -- أنماط تفكير أساسية تلتقط جوهر المشكلات عبر مختلف المجالات. هذه النماذج تقلل من التفاصيل الدقيقة للتمثيل، مما يكشف أن المهام الظاهر أنها متنوعة تنطلق من بنية تفكير مشتركة.بناءً على هذه الفرضية، نقترح إطار ProtoReasoning، وهو إطار يعزز قدرة التفكير في النماذج اللغوية الكبيرة (LLMs) من خلال الاستفادة من تمثيلات نموذجية قابلة للتوسع والتحقق (Prolog للتفكير المنطقي، PDDL للتخطيط). يتضمن إطار ProtoReasoning ما يلي:1. خط أنابيب آلي لبناء النماذج يحول المشكلات إلى تمثيلاتها النموذجية المقابلة.2. نظام شامل للتحقق يقدم ردود فعل موثوقة عبر مترجمات Prolog/PDDL.3. قابلية للتوسع في تركيب المشكلات بشكل تعسفي داخل فضاء النماذج مع ضمان صحة الحلول.أظهرت التجارب الواسعة أن ProtoReasoning حقق تحسينًا بنسبة 4.7% على النماذج المرجعية في التفكير المنطقي (Enigmata-Eval)، وتحسنًا بنسبة 6.3% في مهام التخطيط، وتحسنًا بنسبة 4.0% في التفكير العام (MMLU)، وتحسنًا بنسبة 1.0% في الرياضيات (AIME24). وبشكل كبير، أكدت دراسات الحد الأدنى لدينا أن التعلم في فضاء النماذج يظهر أيضًا تعميمًا محسنًا للمشاكل البنيوية المشابهة بالمقارنة مع التدريب فقط على تمثيلات اللغة الطبيعية، مما يؤكد فرضيتنا بأن نماذج التفكير تعمل كأساس للتعميم القابل للتطبيق في النماذج اللغوية الكبيرة.