HyperAIHyperAI

Command Palette

Search for a command to run...

ابقَ حالمًا دائمًا: نهج جديد للتعلم التدرجي للصفوف دون بيانات

James Smith Yen-Chang Hsu Jonathan Balloch Yilin Shen Hongxia Jin Zsolt Kira

الملخص

تعاني التطبيقات الحديثة في الرؤية الحاسوبية من نسيان كارثي عند التعلم التدريجي للمفاهيم الجديدة على مر الزمن. تُعدّ أبرز الطرق الناجحة لتخفيف هذا النسيان هي إعادة تشغيل كميات كبيرة من البيانات التي تم رؤيتها سابقًا، وهي معضلة في حال وجود قيود على الذاكرة أو مخاوف تتعلق بشرعية البيانات. في هذا العمل، نتناول المشكلة ذات الأثر الكبير المتمثلة في التعلم التدريجي للصفوف دون بيانات (DFCIL)، حيث يجب على وكيل التعلم التدريجي اكتساب مفاهيم جديدة مع مرور الزمن دون تخزين نماذج توليد أو بيانات تدريب من المهام السابقة. إحدى الطرق المتبعة في DFCIL هي إعادة تشغيل صور اصطناعية تُولَّد من خلال عكس نسخة ثابتة من نموذج التصنيف الخاص بالمتعلم، لكننا نُظهر أن هذه الطريقة تفشل في المعايير الشائعة للتعلم التدريجي للصفوف عند استخدام استراتيجيات التقطيع القياسية. ونُحلل سبب هذه الفشل، ونُقدّم استراتيجية جديدة للتجزئة التدريجية في DFCIL، تشمل تدريبًا معدّلًا بالانحراف العشوائي المتقاطع (cross-entropy) وتجزئة ميزات موزونة بالأهمية، ونُظهر أن طريقتنا تُحقّق زيادة تصل إلى 25.1% في دقة المهمة النهائية (بما يمثل الفرق المطلق) مقارنةً بأفضل الطرق الحالية في DFCIL على المعايير الشائعة للتعلم التدريجي للصفوف. وعلاوة على ذلك، تتفوّق طريقتنا على عدة طرق قياسية تعتمد على إعادة تشغيل البيانات التي تخزن مجموعة صغيرة من الصور (coreset).


بناء الذكاء الاصطناعي بالذكاء الاصطناعي

من الفكرة إلى الإطلاق — سرّع تطوير الذكاء الاصطناعي الخاص بك مع المساعدة البرمجية المجانية بالذكاء الاصطناعي، وبيئة جاهزة للاستخدام، وأفضل أسعار لوحدات معالجة الرسومات.

البرمجة التعاونية باستخدام الذكاء الاصطناعي
وحدات GPU جاهزة للعمل
أفضل الأسعار

HyperAI Newsletters

اشترك في آخر تحديثاتنا
سنرسل لك أحدث التحديثات الأسبوعية إلى بريدك الإلكتروني في الساعة التاسعة من صباح كل يوم اثنين
مدعوم بواسطة MailChimp