FreeMatch: تثليث تكيفي ذاتي للتعلم شبه المراقب

لقد شهد التعلم شبه المُراقب (SSL) نجاحًا كبيرًا بفضل الأداء المتميز الذي حققته مختلف الطرق القائمة على التسمية الوهمية (pseudo labeling) والانتظام في الاتساق (consistency regularization). ومع ذلك، نحن نرى أن الطرق الحالية قد تفشل في الاستفادة بشكل فعّال من البيانات غير المُعلَّمة، نظرًا لاستخدامها إما عتبة مُحددة مسبقًا أو مُحددة بشكل عشوائي، مما يؤدي إلى أداء أقل جودة وتباطؤ في التقارب. نبدأ بتحليل مثال توضيحي لاستخلاص تصورات حول العلاقة بين العتبة المثالية والوضع التعلمي للنموذج. استنادًا إلى هذا التحليل، نقترح طريقة تُسمى FreeMatch، والتي تُعدّل عتبة الثقة بشكل تلقائي ذاتيًا وفقًا لحالة التعلم الخاصة بالنموذج. كما نُقدّم أيضًا عقوبة منتظمة لإنصاف الفئات تلقائية ذاتيًا، لتشجيع النموذج على إنتاج تنبؤات متنوعة خلال المرحلة المبكرة من التدريب. تُظهر التجارب الواسعة تفوق FreeMatch، خاصةً عندما تكون البيانات المُعلَّمة نادرة جدًا. حققت FreeMatch خفضًا في معدل الخطأ بنسبة 5.78% و13.59% و1.28% على التوالي مقارنةً بأحدث طريقة مُتطورة، وهي FlexMatch، على مجموعات بيانات CIFAR-10 مع علامة واحدة لكل فئة، وSTL-10 مع أربع علامات لكل فئة، وImageNet مع 100 علامة لكل فئة. علاوةً على ذلك، يمكن لـ FreeMatch أيضًا تحسين أداء التعلم شبه المُراقب في الحالات غير المتوازنة. يمكن الاطلاع على الكود من خلال الرابط التالي: https://github.com/microsoft/Semi-supervised-learning.