تعزيز أداء التعلم شبه المراقب باستخدام التجميع غير المراقب

في الآونة الأخيرة، أظهر التعلم شبه المراقب (SSL) إمكانات كبيرة في الاستفادة من البيانات غير المصنفة مع توفر عدد قليل جدًا من التسميات. في هذه الورقة، نُظهر أن تجاهل التسميات تمامًا لفترات متقطعة تمتد على كامل دورة تدريب (epoch) يمكن أن يُحسّن الأداء بشكل كبير في البيئات ذات العينات الصغيرة. وبشكل أكثر تحديدًا، نقترح تدريب شبكة على مهامتين معًا. تُعرض المهمة الأساسية للتصنيف على كل من البيانات غير المصنفة والبيانات المصنفة بشكل محدود، بينما تسعى المهمة الثانوية إلى تجميع البيانات دون أي تسميات. على عكس المهام المُصاغة يدويًا التي تُستخدم غالبًا في التعلم الذاتي المُراقب، يستخدم مرحلة التجميع في نهجنا نفس الشبكة التصنيفية والرأس (head) بهدف تخفيف الضغط على المهمة الأساسية ونقل المعلومات من التسميات دون التماسك الزائد (overfitting) معها. بالإضافة إلى ذلك، يتم دمج تقنية التعلم الذاتي المُراقب التي تعتمد على تصنيف دوران الصور خلال مرحلة التعلم غير المراقب لتعزيز استقرار التدريب. ونُظهر فعالية طريقتنا في تعزيز عدة خوارزميات متطورة حاليًا في مجال التعلم شبه المراقب، حيث تُحسّن بشكل ملحوظ نتائجها وتقلل من زمن التشغيل في مجموعة متنوعة من المعايير القياسية، بما في ذلك تحقيق دقة 92.6% على CIFAR-10 و96.9% على SVHN، باستخدام فقط 4 تسميات لكل فئة في كل مهمة. كما نُحقّق تحسنًا ملحوظًا في الحالات القصوى التي تُستخدم فيها 1 أو 2 أو 3 تسميات لكل فئة، ونُظهر أن الميزات التي تتعلمها نموذجنا أكثر معنىً في فصل البيانات.