هناك تفسيرات عديدة متسقة للبيانات غير المصنفة: لماذا يجب عليك التوسيط

في الوقت الحاضر، تعتبر أساليب التعلم شبه المشرف (Semi-supervised Learning) الأكثر نجاحًا هي التي تعتمد على تنظيم الثبات (Consistency Regularization)، حيث يتم تدريب النموذج ليكون قويًا تجاه الاضطرابات الصغيرة في مدخلاته ومعامليه. لفهم تنظيم الثبات، نستكشف بشكل مفاهيمي كيف يتفاعل هندسة الخسارة مع إجراءات التدريب. تحسن الخسارة القائمة على الثبات بشكل كبير من أداء التعميم مقارنة بالتدريب المشرف فقط؛ ومع ذلك، نوضح أن خوارزمية النزول العشوائي للتفاضل (Stochastic Gradient Descent - SGD) تواجه صعوبة في التقارب على الخسارة القائمة على الثبات وتستمر في اتخاذ خطوات كبيرة تؤدي إلى تغييرات في التنبؤات على بيانات الاختبار.مستوحى من هذه المشاهدات، نقترح استخدام متوسط الأوزان العشوائي (Stochastic Weight Averaging - SWA)، وهو أسلوب حديث يقوم بمتوسط الأوزان طوال مسار النزول العشوائي للتفاضل مع جدول معدل تعلم معدل. كما نقترح fast-SWA، الذي يسرع التقارب أكثر من خلال متوسط نقاط متعددة داخل كل دورة من دورات جدول معدل التعلم الدوري. باستخدام متوسط الأوزان، حققنا أفضل النتائج المعروفة في مجال التعلم شبه المشرف على مجموعتي بيانات CIFAR-10 وCIFAR-100، وذلك بغض النظر عن كميات مختلفة من البيانات التدريبية المصنفة. على سبيل المثال، حققنا نسبة خطأ قدرها 5.0% على CIFAR-10 باستخدام 4000 تصنيف فقط، بالمقارنة مع أفضل نتيجة سابقة في الأدب العلمي والتي كانت 6.3%.