HyperAIHyperAI

Command Palette

Search for a command to run...

MyGO Multiplex CoT: طريقة للتأمل الذاتي في نماذج اللغة الكبيرة من خلال التفكير بسلاسل الفكر المزدوجة

Shihao Ji; Zihui Song; Fucheng Zhong; Jisen Jia; Zhaobo Wu; Zheyi Cao; Tianhao Xu

الملخص

التطورات الحديثة في نماذج اللغات الكبيرة (LLMs) أظهرت قدراتها المثيرة للإعجاب في مهام مختلفة تتعلق بالاستدلال وصنع القرار. ومع ذلك، يمكن أن تستفيد جودة ومتماسكية عملية الاستدلال من تعزيز التأمل الذاتي والتأمل في النفس. في هذا البحث، نقدم طريقة متعددة المسارات لـ CoT (سلسلة الفكر)، والتي تمكن نماذج اللغات الكبيرة من محاكاة شكل من أشكال المراجعة الذاتية أثناء الاستدلال، وذلك من خلال بدء التفكير بسلسلتين من سلاسل الفكر (CoT). تعتمد طريقة متعددة المسارات لـ CoT على قوة الاستدلال التكراري، حيث تقوم النموذج بإنشاء سلسلة فكر أولية ثم تنتقد وتقوم بتحسين هذه الاستدلالات في جولة ثانية من إنشاء السلسلة. يسمح هذا النهج المتكرر بإعطاء إجابات أكثر تماسكاً ومنطقية ومتانة، مما يحسن عملية صنع القرار بشكل عام. نوضح كيف يمكن تنفيذ هذه الطريقة بكفاءة باستخدام هندسة الدفع البسيطة في بنى نماذج اللغات الكبيرة الحالية، مما يحقق تأثيراً مشابهاً لتلك التي يوفرها نموذج التعلم والتحسين (LRM) دون الحاجة إلى تدريب إضافي. بالإضافة إلى ذلك، نقدم دليلاً عملياً لتنفيذ الطريقة في Google Colab، مما يسهل دمجها في التطبيقات العملية.请注意,这里的人名 "Google" 和 "Colab" 以及术语 "Learning-Refinement Model (LRM)" 都保留了原文的形式,以确保信息的准确性。其他专业术语如 "large language models (LLMs)" 和 "Chain of Thought (CoT)" 也进行了标注。


بناء الذكاء الاصطناعي بالذكاء الاصطناعي

من الفكرة إلى الإطلاق — سرّع تطوير الذكاء الاصطناعي الخاص بك مع المساعدة البرمجية المجانية بالذكاء الاصطناعي، وبيئة جاهزة للاستخدام، وأفضل أسعار لوحدات معالجة الرسومات.

البرمجة التعاونية باستخدام الذكاء الاصطناعي
وحدات GPU جاهزة للعمل
أفضل الأسعار

HyperAI Newsletters

اشترك في آخر تحديثاتنا
سنرسل لك أحدث التحديثات الأسبوعية إلى بريدك الإلكتروني في الساعة التاسعة من صباح كل يوم اثنين
مدعوم بواسطة MailChimp