HyperAIHyperAI

Command Palette

Search for a command to run...

ليست كل الذكريات متساوية: تعلُّم النسيان من خلال انتهاء الصلاحية

Sainbayar Sukhbaatar Da Ju Spencer Poff Stephen Roller Arthur Szlam Jason Weston Angela Fan

الملخص

أظهرت آليات الانتباه نتائج واعدة في مهام نمذجة التسلسلات التي تتطلب ذاكرة طويلة الأمد. وقد استكشفت الدراسات الحديثة آليات لتقليل التكلفة الحسابية المرتبطة بالحفاظ على الذاكرة وتخزينها. ومع ذلك، ليست كل المحتويات السابقة متساوية الأهمية في التذكر. نقترح منهجًا يُدعى Expire-Span، والذي يتعلم الاحتفاظ بأهم المعلومات وانتهاء مدة الاحتفاظ بالمعلومات غير ذات الصلة. يتيح هذا التخلّي عن الذاكرة للنماذج المبنية على معمارية Transformers التمدد للاهتمام بآلاف التوقيتات السابقة بكفاءة، إذ لا يُحفظ كل الحالات من التوقيتات السابقة. ونُظهر أن Expire-Span يمكنه مساعدة النماذج على تحديد المعلومات الحرجة والاحتفاظ بها، كما نُظهر أنه يمكنه تحقيق أداءً قويًا في مهام التعلم التكاملي المصممة خصيصًا لاختبار هذه الوظيفة. ثم نُظهر أن Expire-Span يمكنه التوسع لدعم ذاكرات تصل إلى عشرات الآلاف من الوحدات، مما يُحدث حالة جديدة من الأداء القياسي في مهام السياق الطويل جدًا، مثل نمذجة اللغة على مستوى الحروف، ومهام تتبع الأشياء المتحركة خطوة بخطوة. وأخيرًا، نحلل كفاءة Expire-Span مقارنة بالنهج الحالية، ونُظهر أنه يُدرّب بشكل أسرع ويستهلك ذاكرة أقل.


بناء الذكاء الاصطناعي بالذكاء الاصطناعي

من الفكرة إلى الإطلاق — سرّع تطوير الذكاء الاصطناعي الخاص بك مع المساعدة البرمجية المجانية بالذكاء الاصطناعي، وبيئة جاهزة للاستخدام، وأفضل أسعار لوحدات معالجة الرسومات.

البرمجة التعاونية باستخدام الذكاء الاصطناعي
وحدات GPU جاهزة للعمل
أفضل الأسعار

HyperAI Newsletters

اشترك في آخر تحديثاتنا
سنرسل لك أحدث التحديثات الأسبوعية إلى بريدك الإلكتروني في الساعة التاسعة من صباح كل يوم اثنين
مدعوم بواسطة MailChimp