Command Palette
Search for a command to run...
إلى تحسين الذات للنماذج اللغوية الكبيرة من خلال التخيل، والبحث، والانتقاد
إلى تحسين الذات للنماذج اللغوية الكبيرة من خلال التخيل، والبحث، والانتقاد
Ye Tian Baolin Peng Linfeng Song Lifeng Jin Dian Yu Haitao Mi Dong Yu
الملخص
رغم القدرات البارزة لنماذج اللغة الكبيرة (LLMs) في تنفيذ مهام متنوعة، تظل تواجه صعوبات في السيناريوهات التي تتطلب تفكيرًا معقدًا وخطّة تخطيط. واقترح العمل الأخير تقنيات توجيه متقدمة وضرورة التدريب الدقيق باستخدام بيانات عالية الجودة لتعزيز قدرات LLMs في التفكير. غير أن هذه النهج محدودة بشكل جوهري بتوفر البيانات ونوعيتها. ونظرًا لذلك، ظهرت حلول مُمَكِّنة مثل التصحيح الذاتي والتعلُّم الذاتي، التي تعتمد على استراتيجيات تُمكِّن نماذج اللغة الكبيرة من تحسين مخرجاتها والتعلُّم من مكافآت تُقيِّمها ذاتيًا. ومع ذلك، تظل فعالية LLMs في تحسين إجاباتها ذاتيًا، خصوصًا في المهام المعقدة التي تتطلب تفكيرًا وخطّة تخطيط، موضع شك. في هذا البحث، نقدِّم AlphaLLM لتحسين LLMs ذاتيًا، حيث يُدمج خوارزمية البحث الشجري مونت كارلو (MCTS) مع LLMs لبناء حلقة تحسين ذاتي، مما يعزز قدرات LLMs دون الحاجة إلى تعليقات إضافية. مستلهمين من نجاح AlphaGo، يعالج AlphaLLM التحديات الفريدة المتمثلة في دمج MCTS مع LLMs لتحقيق التحسين الذاتي، بما في ذلك ندرة البيانات، واتساع فضاءات البحث في المهام اللغوية، وطبيعة التغذية الراجعة التقديرية في المهام اللغوية. يتكوّن AlphaLLM من مكوِّن توليد التوجيهات (prompt synthesis)، ونهج مُحسَّن لخوارزمية MCTS مُعدّل خصيصًا للغة، وثلاثة نماذج ناقدة (critic models) لتوفير تغذية راجعة دقيقة. تُظهر النتائج التجريبية في مهام التفكير الرياضي تحسينًا ملحوظًا في أداء LLMs دون الحاجة إلى تعليقات إضافية، ما يُشير إلى الإمكانات الكامنة للتحسين الذاتي في نماذج اللغة الكبيرة.