HyperAIHyperAI

Command Palette

Search for a command to run...

تحقيق منع النسيان ونقل المعرفة في التعلم المستمر

Zixuan Ke Bing Liu Nianzu Ma Hu Xu Lei Shu

الملخص

التعلم المستمر (CL) يتعلم تسلسلاً من المهام بشكل تدريجي، بهدف تحقيق هدفين رئيسيين: التغلب على النسيان الكارثي (CF) وتشجيع نقل المعرفة (KT) بين المهام. ومع ذلك، فإن معظم التقنيات الحالية تركز فقط على التغلب على النسيان الكارثي، ولا تمتلك آلية لتشجيع نقل المعرفة، وبالتالي لا تحقق أداءً جيدًا في نقل المعرفة. وعلى الرغم من محاولة عدة أوراق بحثية التعامل مع كلا الجانبين (CF وKT)، إلا أن تجاربنا تُظهر أنها تعاني من نسيان كارثي خطير عندما لا تكون المهام تمتلك معرفة مشتركة كثيرة. ملاحظة أخرى هي أن معظم الطرق الحالية للتعلم المستمر لا تستخدم النماذج المُدرّبة مسبقًا، رغم أن الدراسات أظهرت أن هذه النماذج يمكن أن تُحسّن بشكل كبير أداء المهمة النهائية. على سبيل المثال، في معالجة اللغة الطبيعية، يُعدّ تكييف نموذج لغوي مُدرّب مسبقًا من نوع BERT أحد أكثر الطرق فعالية. ومع ذلك، يعاني هذا النهج في سياق التعلم المستمر من نسيان كارثي خطير. وتساؤل مثير هو كيف يمكن الاستفادة القصوى من النماذج المُدرّبة مسبقًا في سياق التعلم المستمر. تقدم هذه الورقة نموذجًا جديدًا يُدعى CTR لحل هذه المشكلات. وتوحي نتائج التجارب التي أجريناها بفعالية نموذج CTR.


بناء الذكاء الاصطناعي بالذكاء الاصطناعي

من الفكرة إلى الإطلاق — سرّع تطوير الذكاء الاصطناعي الخاص بك مع المساعدة البرمجية المجانية بالذكاء الاصطناعي، وبيئة جاهزة للاستخدام، وأفضل أسعار لوحدات معالجة الرسومات.

البرمجة التعاونية باستخدام الذكاء الاصطناعي
وحدات GPU جاهزة للعمل
أفضل الأسعار

HyperAI Newsletters

اشترك في آخر تحديثاتنا
سنرسل لك أحدث التحديثات الأسبوعية إلى بريدك الإلكتروني في الساعة التاسعة من صباح كل يوم اثنين
مدعوم بواسطة MailChimp
تحقيق منع النسيان ونقل المعرفة في التعلم المستمر | مستندات | HyperAI