HyperAIHyperAI
منذ 16 أيام

التعلم القليل التدريجي عبر التكميم المتجهي في الفضاء المدمج العميق

{Chi-Guhn Lee, Kuilin Chen}
التعلم القليل التدريجي عبر التكميم المتجهي في الفضاء المدمج العميق
الملخص

القدرة على تعلم مهام جديدة بشكل تدريجي دون نسيان المهام القديمة تمثل مشكلة صعبة بسبب النسيان الكارثي. وتزداد هذه التحديات عندما تتضمن المهام الجديدة عددًا قليلاً جدًا من العينات المُعلَّمة للتدريب. في الوقت الحالي، تركز معظم الطرق على التعلم التدرجي للتصنيف (class-incremental learning) وتعتمد على توفر بيانات تدريب كافية لتعلم أوزان إضافية للصفوف الجديدة المضافة. لكن هذه الطرق لا يمكن توسيعها بسهولة إلى مهام التعلم التدرجي للانحدار (incremental regression)، كما قد تعاني من تأثيرات تعلّم مفرطة (overfitting) شديدة عند تعلم المهام الجديدة في سياق قليل العينات (few-shot). في هذه الدراسة، نقترح طريقة غير معلمية (nonparametric) في الفضاء المدمج العميق (deep embedded space) لمعالجة مشكلات التعلم التدرجي القليل العينات (incremental few-shot learning). حيث يتم ضغط المعرفة المتعلقة بالمهام المُتعلَّمة إلى عدد صغير من المتجهات المرجعية المُكمَّلة (quantized reference vectors). وتتعلم الطريقة المُقترحة المهام الجديدة تدريجيًا من خلال إضافة متجهات مرجعية إضافية إلى النموذج باستخدام عينات قليلة من كل مهمة جديدة. وبالنسبة لمشاكل التصنيف، نستخدم خوارزمية أقرب الجيران (nearest neighbor) لاتخاذ قرارات التصنيف على البيانات النادرة، ونُدمج تباينات داخل الفئة (intra-class variation)، وتحفيزًا لخفض النسيان (less forgetting regularization)، وتصحيحًا للمتجهات المرجعية لتقليل تأثير النسيان الكارثي. علاوة على ذلك، يمكن تخصيص طريقة كمية المتجهات التعلُّمية (learning vector quantization - LVQ) المُقترحة في الفضاء المدمج العميق كمُعَمِّل نواة (kernel smoother) للتعامل مع مهام الانحدار التدرجي القليل العينات. وأظهرت النتائج التجريبية أن الطريقة المقترحة تتفوّق على الطرق الأخرى من الطراز الرائد (state-of-the-art) في التعلم التدرجي.