HyperAIHyperAI
منذ 11 أيام

التعلم التدريجي القائم على عدد قليل من الأمثلة مع تصنيفات تتغير باستمرار

Chi Zhang, Nan Song, Guosheng Lin, Yun Zheng, Pan Pan, Yinghui Xu
التعلم التدريجي القائم على عدد قليل من الأمثلة مع تصنيفات تتغير باستمرار
الملخص

يهدف التعلم التدريجي للتصنيف بكميات قليلة (FSCIL) إلى تصميم خوارزميات تعلم آلي قادرة على تعلّم مفاهيم جديدة من عدد قليل من النقاط البيانات، دون نسيان المعرفة المتعلقة بالفئات القديمة. وتكمن الصعوبة في أن البيانات المحدودة من الفئات الجديدة لا تؤدي فقط إلى مشكلات كبيرة في التعلّم الزائد (overfitting)، بل تُفاقم أيضًا مشكلة النسيان الكارثي الشهيرة. علاوةً على ذلك، وبما أن بيانات التدريب تصل تدريجيًا في سياق FSCIL، فإن المصنف المُدرّب يمكنه فقط توفير معلومات تمييزية في الجلسات الفردية، في حين أن FSCIL يتطلب إشراك جميع الفئات في عملية التقييم. في هذه الورقة، نتناول مشكلة FSCIL من جهتين. أولاً، نعتمد استراتيجية بسيطة لكن فعالة لفصل التعلم بين التمثيلات (representations) والمصنفات (classifiers)، حيث يتم تحديث المصنفات فقط في كل جلسة تدريبية متسلسلة، مما يمنع فقدان المعرفة في التمثيلات. وبهذا، نُظهر أن استخدام نموذج أساسي مُدرّب مسبقًا مع مصنف متوسط فئات غير مُعلَّم (non-parametric class mean classifier) يمكنه تفوق الطرق الحالية المتطورة. ثانيًا، لجعل المصنفات المُدرّبة في الجلسات الفردية قابلة للتطبيق على جميع الفئات، نقترح مصنفًا متغيرًا باستمرار (CEC) يعتمد على نموذج رسم بياني (graph model) لنقل معلومات السياق بين المصنفات بهدف التكيّف. ولتمكين تعلّم CEC، نصمم نموذجًا افتراضيًا للتعلم التدريجي، يُنشئ تدريجيًا مهامًا تدريبية افتراضية بشكل دوري، ويُحسّن معاملات الرسم البياني من خلال أخذ عينات من البيانات من مجموعة البيانات الأساسية. أظهرت التجارب على ثلاث مجموعات بيانات شهيرة، تشمل CIFAR100 وminiImageNet وCaltech-USCD Birds-200-2011 (CUB200)، أن طريقتنا تتفوق بشكل كبير على الطرق الأساسية، وتُحقّق نتائج جديدة على مستوى الحد الأقصى (state-of-the-art) بفارق ملحوظ.

التعلم التدريجي القائم على عدد قليل من الأمثلة مع تصنيفات تتغير باستمرار | أحدث الأوراق البحثية | HyperAI