PODNet: التبادل التجميعي للنواتج المجمعة للتعلم التدريجي المهام الصغيرة

لقد جذبت التعلم مدى الحياة انتباهًا كبيرًا، لكن الدراسات الحالية ما زالت تواجه صعوبات في مواجهة النسيان الكارثي وجمع المعرفة على مدى فترات طويلة من التعلم التدريجي. في هذا العمل، نقترح نموذج PODNet، الذي يُلهمه التعلم التمثيلي. من خلال تحقيق توازن دقيق بين الحفاظ على فهم الفئات القديمة وتعلم الفئات الجديدة، يُظهر PODNet قدرة فعّالة على مواجهة النسيان الكارثي، حتى في مهام تدريجية صغيرة متتالية على مدى طويل — وهي حالة لم تُستكشف سابقًا من قبل الدراسات الحالية. يُميّز PODNet الابتكار الحالي من خلال استخدام خسارة استخلاص مُساحية فعّالة تُطبّق على طول النموذج، بالإضافة إلى تمثيل يتضمن عدة متجهات وهمية لكل فئة. وقد قمنا بتوثيق هذه الابتكارات بشكل شامل، من خلال مقارنة PODNet مع ثلاث نماذج رائدة على ثلاث مجموعات بيانات: CIFAR100 وImageNet100 وImageNet1000. تُظهر النتائج تفوّقًا ملحوظًا لـ PODNet مقارنة بالأساليب الحالية، مع مكاسب في الدقة تبلغ 12.10 و6.51 و2.85 نقطة مئوية على التوالي. يمكن الوصول إلى الكود من خلال الرابط التالي: https://github.com/arthurdouillard/incremental_learning.pytorch