HyperAIHyperAI
منذ 11 أيام

RMM: إدارة مُعزَّزة للذاكرة للتعلم التدرجي للصفوف

Yaoyao Liu, Bernt Schiele, Qianru Sun
RMM: إدارة مُعزَّزة للذاكرة للتعلم التدرجي للصفوف
الملخص

التعلم التدرجي للصفوف (CIL) [40] يدرب تصنيفات تحت ميزانية ذاكرة صارمة: في كل مرحلة تدرُّجية، يتم التعلُّم على البيانات الجديدة، بينما يتم التخلي عن معظمها لتوفير مساحة للمرحلة التالية. تُحتفظ بالبيانات المُحفوظة كعينات مُعاد إنتاجها (exemplars) لاستخدامها في إعادة التمثيل. ومع ذلك، فإن الطرق الحالية تستخدم استراتيجية ثابتة وغير منضبطة لتخصيص الذاكرة، وهي غالبًا ما تكون غير مثلى. في هذا العمل، نقترح استراتيجية إدارة ذاكرة ديناميكية مُحسَّنة للمرحلات التدرُّجية والطبقات المختلفة للكائنات. نُسمّي طريقتنا بإدارة الذاكرة المعززة (RMM)، باستخدام التعلُّم المعزز (Reinforcement Learning). لا يتوافق تدريب RMM بشكل طبيعي مع CIL، حيث تكون البيانات السابقة والمستقبلية غير قابلة للوصول خلال المرحل التدرُّجية. ونحل هذه المشكلة من خلال تدريب دالة السياسة في RMM على مهام اصطناعية تشبه CIL، مثل المهام المبنية على بيانات المرحلة الصفرية، ثم تطبيقها على المهام المستهدفة. تُنفِّذ RMM إجراءين على مستويين: المستوى الأول يُحدِّد كيفية تقسيم الذاكرة بين الفئات القديمة والجديدة، والمستوى الثاني يُخصِّص الذاكرة لكل فئة محددة. بشكل أساسي، إنها طريقة قابلة للتحسين وعامة لإدارة الذاكرة، يمكن استخدامها في أي طريقة CIL تعتمد على إعادة التمثيل. ولتقييمها، نُدمج RMM في نموذجين رائدين (LUCIR+AANets وPOD+AANets [30]) ونُجري تجارب على ثلاث معايير (CIFAR-100، ImageNet-Subset، وImageNet-Full). تُظهر نتائجنا تحسينات واضحة، مثلاً رفع أداء POD+AANets بنسبة 3.6% و4.4% و1.9% على التوالي في إعدادات المرحلة 25 لهذه المعايير.

RMM: إدارة مُعزَّزة للذاكرة للتعلم التدرجي للصفوف | أحدث الأوراق البحثية | HyperAI