التعلم التدريجي من البداية إلى النهاية

رغم أن نماذج التعلم العميق قد تألقت في السنوات الأخيرة بفضل نتائجها الرائدة، إلا أنها لا تزال تعاني من النسيان الكارثي، وهو انخفاض حاد في الأداء الشامل عند التدريب مع إضافة فئات جديدة بشكل تدريجي. هذا يرجع إلى أن هياكل الشبكات العصبية الحالية تتطلب مجموعة البيانات الكاملة، والتي تتكون من جميع العينات من الفئات القديمة والجديدة، لتحديث النموذج - وهي متطلبات تصبح غير مستدامة بسهولة مع زيادة عدد الفئات. نعالج هذه المشكلة بنهجنا لتعلم الشبكات العصبية العميقة بشكل تدريجي، باستخدام بيانات جديدة ونماذج صغيرة فقط متعلقة بالعينات من الفئات القديمة. يتم ذلك على أساس دالة خسارة تتكون من مقياس التقطير لحفظ المعرفة المكتسبة من الفئات القديمة، وخسارة الانتروبيا المتقاطعة لتعلم الفئات الجديدة. نحقق التدريب التدريجي لدينا بينما نحافظ على الإطار الكامل كله-اله، أي تعلم تمثيل البيانات وال تصنيف معاً، على عكس الأساليب الحديثة التي لا توفر مثل هذه الضمانات. قمنا بتقييم طرقنا بشكل شامل على مجموعتي بيانات تصنيف الصور CIFAR-100 و ImageNet (ILSVRC 2012)، وأظهرنا أداءً رائدًا في هذا المجال.