HyperAIHyperAI

Command Palette

Search for a command to run...

منذ 2 أشهر

ما وراء الحفظ: توسيع عمق الاستدلال من خلال التكرار والذاكرة وتوسيع الحوسبة أثناء الاختبار

ما وراء الحفظ: توسيع عمق الاستدلال من خلال التكرار والذاكرة وتوسيع الحوسبة أثناء الاختبار

الملخص

الاستنتاج يُعدّ قدرة أساسية في النماذج اللغوية الكبيرة، ومع ذلك لا يزال فهم كيفية تعلّمها وأداءها للاستنتاج متعدد الخطوات مشكلة مفتوحة. في هذه الدراسة، نستعرض كيف تؤثر المعماريات المختلفة وطرق التدريب المختلفة على قدرات النموذج في الاستنتاج متعدد الخطوات ضمن إطار نماذج الآلات الخلوية. من خلال التدريب على تسلسلات الحالة الناتجة عن دوال بوولية عشوائية تحت ظروف ابتدائية عشوائية، وبهدف استبعاد الذاكرة المُخزّنة، نُظهر أن معظم المعماريات العصبية تتعلم استخلاص القواعد الكامنة وراء النظام. وعلى الرغم من أن النماذج تحقق دقة عالية في توقع الحالة التالية، إلا أن أداؤها ينخفض بشكل حاد عندما تتطلب المهمة استنتاجًا متعدد الخطوات. ونؤكد أن زيادة عمق النموذج تلعب دورًا حاسمًا في العمليات التسلسلية. كما نُظهر أن توسيع عمق النموذج الفعّال من خلال التكرار (recurrence) والذاكرة وتوسيع حسابات الوقت أثناء الاختبار (test-time compute scaling) يُعزز بشكل كبير من قدرات الاستنتاج.

بناء الذكاء الاصطناعي بالذكاء الاصطناعي

من الفكرة إلى الإطلاق — عجّل تطوير الذكاء الاصطناعي الخاص بك من خلال البرمجة المشتركة المجانية بالذكاء الاصطناعي، وبيئة جاهزة للاستخدام، وأفضل أسعار لوحدات معالجة الرسومات.

البرمجة المشتركة بالذكاء الاصطناعي
وحدات معالجة رسومات جاهزة
أفضل الأسعار
ابدأ الآن

Hyper Newsletters

اشترك في آخر تحديثاتنا
سنرسل لك أحدث التحديثات الأسبوعية إلى بريدك الإلكتروني في الساعة التاسعة من صباح كل يوم اثنين
مدعوم بواسطة MailChimp