تعلم تصنيف موحد بشكل تدريجي من خلال إعادة التوازن

بشكل تقليدي، يتم تدريب الشبكات العصبية العميقة خارج الزمن الحقيقي، وذلك بالاعتماد على مجموعة بيانات كبيرة تم إعدادها مسبقًا. ويُواجه هذا النموذج تحديات متكررة في التطبيقات الواقعية، مثل الخدمات عبر الإنترنت التي تتضمن تدفقات مستمرة من البيانات الواردة. في الآونة الأخيرة، أصبح التعلم التدرجي موضوع اهتمام متزايد، ويُعتبر حلًا واعدًا للتحديات العملية المذكورة أعلاه. ومع ذلك، لوحظ أن التعلم التدرجي يعاني من صعوبة جوهرية تُعرف بـ"النسيان الكارثي"، أي أن عملية تكييف النموذج مع البيانات الجديدة غالبًا ما تؤدي إلى تدهور شديد في الأداء بالنسبة للمهام أو الفئات السابقة. تُظهر دراستنا أن عدم التوازن بين البيانات القديمة والجديدة هو السبب الرئيسي لهذا المشكل. في هذا العمل، نطور إطارًا جديدًا لتعلم مصنف موحد بشكل تدريجي، مثل مصنف يعامل الفئات القديمة والجديدة بشكل متساوٍ. وبشكل محدد، ندمج ثلاث مكونات: التطبيع الجيبي، وقيود التقليل من النسيان، وفصل الفئات بعضها البعض، بهدف تقليل الآثار السلبية الناتجة عن هذا عدم التوازن. تُظهر التجارب أن الطريقة المقترحة قادرة على إعادة توازن عملية التدريب بشكل فعّال، مما يؤدي إلى أداء متفوق مقارنة بالطرق الحالية. على مجموعتي بيانات CIFAR-100 وImageNet، يمكن للطريقة المقترحة تقليل أخطاء التصنيف بنسبة تزيد عن 6% و13% على التوالي، ضمن بيئة تدريب تدريجي تتكون من 10 مراحل.