HyperAIHyperAI
منذ 2 أشهر

التعلم التدريجي من البداية إلى النهاية

Francisco M. Castro; Manuel J. Marín-Jiménez; Nicolás Guil; Cordelia Schmid; Karteek Alahari
التعلم التدريجي من البداية إلى النهاية
الملخص

رغم أن نماذج التعلم العميق قد تألقت في السنوات الأخيرة بفضل نتائجها الرائدة، إلا أنها لا تزال تعاني من النسيان الكارثي، وهو انخفاض حاد في الأداء الشامل عند التدريب مع إضافة فئات جديدة بشكل تدريجي. هذا يرجع إلى أن هياكل الشبكات العصبية الحالية تتطلب مجموعة البيانات الكاملة، والتي تتكون من جميع العينات من الفئات القديمة والجديدة، لتحديث النموذج - وهي متطلبات تصبح غير مستدامة بسهولة مع زيادة عدد الفئات. نعالج هذه المشكلة بنهجنا لتعلم الشبكات العصبية العميقة بشكل تدريجي، باستخدام بيانات جديدة ونماذج صغيرة فقط متعلقة بالعينات من الفئات القديمة. يتم ذلك على أساس دالة خسارة تتكون من مقياس التقطير لحفظ المعرفة المكتسبة من الفئات القديمة، وخسارة الانتروبيا المتقاطعة لتعلم الفئات الجديدة. نحقق التدريب التدريجي لدينا بينما نحافظ على الإطار الكامل كله-اله، أي تعلم تمثيل البيانات وال تصنيف معاً، على عكس الأساليب الحديثة التي لا توفر مثل هذه الضمانات. قمنا بتقييم طرقنا بشكل شامل على مجموعتي بيانات تصنيف الصور CIFAR-100 و ImageNet (ILSVRC 2012)، وأظهرنا أداءً رائدًا في هذا المجال.

التعلم التدريجي من البداية إلى النهاية | أحدث الأوراق البحثية | HyperAI