التنوع يساعد: التعلم القليل بدون إشراف عبر تضخيم البيانات المستند إلى تحول التوزيع

يهدف التعلم القليل العينات (few-shot learning) إلى تعلم مفهوم جديد عندما تكون هناك عينات قليلة فقط متاحة للتدريب، وهو ما تم استكشافه بشكل واسع في السنوات الأخيرة. ومع ذلك، تعتمد معظم الأعمال الحالية بشكل كبير على مجموعة مساعدة كبيرة ومصنفة لتدريب نماذجها في إطار تدريبي حادثي (episodic-training paradigm). يحد هذا الإعداد المشرف بشكل أساسي من الاستخدام الواسع لخوارزميات التعلم القليل العينات. بدلاً من ذلك، في هذه الورقة البحثية، نطور إطارًا جديدًا يُسمى التعلم القليل العينات غير المشرف عبر زيادة البيانات المستندة إلى تحول التوزيع (Unsupervised Few-shot Learning via Distribution Shift-based Data Augmentation - ULDA)، والذي يركز على تنوع التوزيع داخل كل مهمة قليلة العينات تمهيدية يتم بناؤها عند استخدام زيادة البيانات. من الأهمية بمكان أن نسلط الضوء على قيمة و أهمية تنوع التوزيع في المهام القليلة العينات التمهيدية المستندة إلى الزيادة، حيث يمكن أن يخفف هذا الفعل بشكل فعال من مشكلة الانحياز الزائد (overfitting) ويجعل نموذج قليل العينات يتعلم تمثيلات خصائص أكثر صلابة. في ULDA، نقوم بدراسة منهجية لتأثير تقنيات الزيادة المختلفة ونقترح تعزيز تنوع التوزيع (أو الاختلاف) بين مجموعة الاستعلام ومجموعة الدعم في كل مهمة قليلة عينات، عن طريق زيادة هذين المجموعتين بطرق متنوعة (أي تحويل التوزيع). بهذه الطريقة، حتى مع دمج تقنيات زيادة بسيطة (مثل التقليم العشوائي، أو تشويش اللون، أو الدوران)، يمكن لـ ULDA أن تحقق تحسينًا كبيرًا. في التجارب، يمكن لنماذج قليلة العينات التي تم تعلمها بواسطة ULDA تحقيق أداء عام أفضل والحصول على نتائج رائدة في مجموعة متنوعة من المهام المablished للتعلم القليل العينات على Omniglot و miniImageNet. الرمز المصدر متاح في https://github.com/WonderSeven/ULDA.请注意,"established" 一词在阿拉伯语中没有直接对应的翻译,因此我将其保留为英文。此外,“Omniglot” 和 “miniImageNet” 是数据集的名称,通常在阿拉伯语文献中也保留为英文。