HyperAIHyperAI
منذ 2 أشهر

MyGO Multiplex CoT: طريقة للتأمل الذاتي في نماذج اللغة الكبيرة من خلال التفكير بسلاسل الفكر المزدوجة

Shihao Ji; Zihui Song; Fucheng Zhong; Jisen Jia; Zhaobo Wu; Zheyi Cao; Tianhao Xu
MyGO Multiplex CoT: طريقة للتأمل الذاتي في نماذج اللغة الكبيرة من خلال التفكير بسلاسل الفكر المزدوجة
الملخص

التطورات الحديثة في نماذج اللغات الكبيرة (LLMs) أظهرت قدراتها المثيرة للإعجاب في مهام مختلفة تتعلق بالاستدلال وصنع القرار. ومع ذلك، يمكن أن تستفيد جودة ومتماسكية عملية الاستدلال من تعزيز التأمل الذاتي والتأمل في النفس. في هذا البحث، نقدم طريقة متعددة المسارات لـ CoT (سلسلة الفكر)، والتي تمكن نماذج اللغات الكبيرة من محاكاة شكل من أشكال المراجعة الذاتية أثناء الاستدلال، وذلك من خلال بدء التفكير بسلسلتين من سلاسل الفكر (CoT). تعتمد طريقة متعددة المسارات لـ CoT على قوة الاستدلال التكراري، حيث تقوم النموذج بإنشاء سلسلة فكر أولية ثم تنتقد وتقوم بتحسين هذه الاستدلالات في جولة ثانية من إنشاء السلسلة. يسمح هذا النهج المتكرر بإعطاء إجابات أكثر تماسكاً ومنطقية ومتانة، مما يحسن عملية صنع القرار بشكل عام. نوضح كيف يمكن تنفيذ هذه الطريقة بكفاءة باستخدام هندسة الدفع البسيطة في بنى نماذج اللغات الكبيرة الحالية، مما يحقق تأثيراً مشابهاً لتلك التي يوفرها نموذج التعلم والتحسين (LRM) دون الحاجة إلى تدريب إضافي. بالإضافة إلى ذلك، نقدم دليلاً عملياً لتنفيذ الطريقة في Google Colab، مما يسهل دمجها في التطبيقات العملية.请注意,这里的人名 "Google" 和 "Colab" 以及术语 "Learning-Refinement Model (LRM)" 都保留了原文的形式,以确保信息的准确性。其他专业术语如 "large language models (LLMs)" 和 "Chain of Thought (CoT)" 也进行了标注。

MyGO Multiplex CoT: طريقة للتأمل الذاتي في نماذج اللغة الكبيرة من خلال التفكير بسلاسل الفكر المزدوجة | أحدث الأوراق البحثية | HyperAI