FOSTER: تحسين الميزات وضغطها للتعلم التدرجي للصف

القدرة على تعلّم مفاهيم جديدة باستمرار هي ضرورة في هذا العالم المتغير باستمرار. ومع ذلك، تعاني الشبكات العصبية العميقة من نسيان كارثي عند تعلّم فئات جديدة. وقد تم اقتراح العديد من الدراسات لتخفيف هذه الظاهرة، لكن معظمها يقع في متاهة التوازن بين الاستقرار والمرونة، أو يتطلب حسابات أو تكاليف تخزين كبيرة جدًا. مستوحى من خوارزمية تحسين التدرج (gradient boosting) التي تُعدّ تدريجيًا الفروق بين النموذج المستهدف والنموذج المجمّع السابق، نقترح منهجًا تعلّميًا ثنائي المراحل جديدًا يُسمّى FOSTER، والذي يمكّن النموذج من تعلّم فئات جديدة بشكل تكيفي. بشكل محدد، نقوم أولًا بتوسيع دوائر جديدة ديناميكيًا لتناسب الفروق بين الهدف والخرج الناتج من النموذج الأصلي. ثم، نُزيل المعاملات والابعاد المميزة الزائدة من خلال استراتيجية استخلاص فعّالة للحفاظ على نموذج أساس واحد. وقد قمنا بتأكيد أداء منهجنا FOSTER على مجموعتي بيانات CIFAR-100 وImageNet-100/1000 في ظروف مختلفة. وأظهرت النتائج التجريبية أن منهجنا يحقق أداءً من الدرجة الأولى (state-of-the-art). يُمكن الاطلاع على الكود عبر: https://github.com/G-U-N/ECCV22-FOSTER.