تصنيف الصور بقليل من العينات من خلال التعلم الذاتي المقارن

معظم خوارزميات التعلم القليل النموذجية السابقة تعتمد على التدريب الميتا (meta-training) باستخدام مهام قليلة نماذج وهمية كعينات تدريب، حيث يُطلب وجود فئات أساسية كبيرة ومصنفة. ومع ذلك، فإن النموذج المدرب يكون مقيدًا بنوع المهام. في هذا البحث، نقترح نموذجًا جديدًا للتعلم القليل النموذجي غير المنظور لمعالجة هذه العيوب. نحل مشكلة المهام القليلة النماذج في مرحلتين: التدريب الميتا لمستخرج الخصائص القابل للنقل عبر التعلم الذاتي التبايني (contrastive self-supervised learning)، والتدريب على تصنيف باستخدام تجميع الرسم البياني (graph aggregation)، والتدوير الذاتي (self-distillation)، وتضخيم المتعدد الأبعاد (manifold augmentation). بمجرد إكمال التدريب الميتا، يمكن استخدام النموذج في أي نوع من المهام مع تدريب تصنيف يعتمد على المهمة. طريقة بحثنا تحقق أداءً رائدًا في مجموعة متنوعة من المهام القليلة النماذج المعترف بها على مجموعات البيانات القياسية للتصنيف البصري القليل النموذجي، مع زيادة تتراوح بين 8٪ و28٪ مقارنة بالطرق المتاحة للتعلم القليل النموذجي غير المنظور.