HyperAIHyperAI
منذ 16 أيام

ابقَ حالمًا دائمًا: نهج جديد للتعلم التدرجي للصفوف دون بيانات

James Smith, Yen-Chang Hsu, Jonathan Balloch, Yilin Shen, Hongxia Jin, Zsolt Kira
ابقَ حالمًا دائمًا: نهج جديد للتعلم التدرجي للصفوف دون بيانات
الملخص

تعاني التطبيقات الحديثة في الرؤية الحاسوبية من نسيان كارثي عند التعلم التدريجي للمفاهيم الجديدة على مر الزمن. تُعدّ أبرز الطرق الناجحة لتخفيف هذا النسيان هي إعادة تشغيل كميات كبيرة من البيانات التي تم رؤيتها سابقًا، وهي معضلة في حال وجود قيود على الذاكرة أو مخاوف تتعلق بشرعية البيانات. في هذا العمل، نتناول المشكلة ذات الأثر الكبير المتمثلة في التعلم التدريجي للصفوف دون بيانات (DFCIL)، حيث يجب على وكيل التعلم التدريجي اكتساب مفاهيم جديدة مع مرور الزمن دون تخزين نماذج توليد أو بيانات تدريب من المهام السابقة. إحدى الطرق المتبعة في DFCIL هي إعادة تشغيل صور اصطناعية تُولَّد من خلال عكس نسخة ثابتة من نموذج التصنيف الخاص بالمتعلم، لكننا نُظهر أن هذه الطريقة تفشل في المعايير الشائعة للتعلم التدريجي للصفوف عند استخدام استراتيجيات التقطيع القياسية. ونُحلل سبب هذه الفشل، ونُقدّم استراتيجية جديدة للتجزئة التدريجية في DFCIL، تشمل تدريبًا معدّلًا بالانحراف العشوائي المتقاطع (cross-entropy) وتجزئة ميزات موزونة بالأهمية، ونُظهر أن طريقتنا تُحقّق زيادة تصل إلى 25.1% في دقة المهمة النهائية (بما يمثل الفرق المطلق) مقارنةً بأفضل الطرق الحالية في DFCIL على المعايير الشائعة للتعلم التدريجي للصفوف. وعلاوة على ذلك، تتفوّق طريقتنا على عدة طرق قياسية تعتمد على إعادة تشغيل البيانات التي تخزن مجموعة صغيرة من الصور (coreset).

ابقَ حالمًا دائمًا: نهج جديد للتعلم التدرجي للصفوف دون بيانات | أحدث الأوراق البحثية | HyperAI