HyperAI
منذ 4 أيام

موف: التفكير المُوجه بتحريض عدم اليقين في الزخم لنموذجات اللغة الكبيرة

Hang Yan; Fangzhi Xu; Rongman Xu; Yifei Li; Jian Zhang; Haoran Luo; Xiaobao Wu; Luu Anh Tuan; Haiteng Zhao; Qika Lin; Jun Liu
موف: التفكير المُوجه بتحريض عدم اليقين في الزخم لنموذجات اللغة الكبيرة
الملخص

نماذج اللغة الكبيرة (LLMs) حققت أداءً متميزًا في المهام التي تتطلب التفكير، ومع ذلك لا يزال تحسين كفاءة التفكير أمرًا تحديًا مفتوحًا. على الرغم من أن مقياس التوسع في وقت الاختبار (TTS) يحسن جودة التفكير، إلا أنه غالبًا يؤدي إلى التفكير المفرط، مما يهدر الأحرف (tokens) في عمليات حسابية متكررة. تقوم هذه الدراسة بدراسة كيفية توجيه توسع LLM في وقت الاختبار بشكل فعال ومتكيف دون الحاجة إلى تدريب إضافي. مستوحاة من مفهوم الزخم في الفيزياء، نقترح "التفكير الموجه بالزخم والشك" (MUR)، الذي يوزع بشكل ديناميكي ميزانية التفكير على الخطوات الحاسمة للاستدلال من خلال تتبع وجمع الشك (الاستبعاد) في كل خطوة على مدار الوقت. لدعم التحكم المرن في وقت الاستنتاج، نقدم "متحكم الجاما" (gamma-control)، آلية بسيطة تضبط ميزانية الاستدلال من خلال معلمة فائقة واحدة. نقدم إثباتًا نظريًا مفصلًا لدعم تفوق MUR من حيث الاستقرار والتحيزات. تم تقييم MUR بشكل شامل مقارنة بطرق TTS المختلفة عبر أربع معايير صعبة (MATH-500، AIME24، AIME25، وGPQA-diamond)، باستخدام نماذج Qwen3 المختلفة الأحجام (1.7B، 4B، و8B). تشير النتائج إلى أن MUR تقلل من الحسابات بنسبة تزيد عن 50% في المتوسط، بينما تحسن الدقة بنسبة 0.62 إلى 3.37%.