FixMatch: تبسيط التعلم شبه المراقب باستخدام الاتساق والثقة

يُعد التعلم شبه المُشرَّف (SSL) وسيلة فعّالة لاستغلال البيانات غير المُعلَّمة لتحسين أداء النموذج. في هذه الورقة، نُظهِر القوة الناتجة عن مزيج بسيط من طريقتين شائعتين في التعلم شبه المُشرَّف: الت régularization المستمر (الثبات) والتصنيف التلقائي (التموضع الوهمي). يُولِّد خوارزميتنا، FixMatch، تسميات وهمية (Pseudo-labels) باستخدام تنبؤات النموذج بالنسبة للصور غير المُعلَّمة التي خضعت لتحسين ضعيف. ويُحتفظ بتسمية وهمية معينة لصورة معينة فقط إذا أنتج النموذج تنبؤًا بثقة عالية. ثم يُدرَّب النموذج على التنبؤ بتلك التسمية الوهمية عند إدخال نسخة مُعزَّزة بشدة من الصورة نفسها. وعلى الرغم من بساطة هذا النهج، نُظهِر أن FixMatch تحقق أداءً متفوّقًا على مستوى الحد الأقصى (state-of-the-art) في مجموعة متنوعة من معايير التعلم شبه المُشرَّف القياسية، بما في ذلك دقة تبلغ 94.93% على مجموعة CIFAR-10 باستخدام 250 علامة فقط، ودقة تبلغ 88.61% باستخدام 40 علامة فقط (أي 4 علامات فقط لكل فئة). وبما أن FixMatch تتشابه في العديد من جوانبها مع طرق سابقة في التعلم شبه المُشرَّف أظهرت أداءً أضعف، فقد أجرينا دراسة تحليلية موسعة (أَبْلَيْشِن ستُدي) لتحديد العوامل التجريبية التي تُعد الأكثر أهمية لنجاح FixMatch. ونُقدِّم كود الخوارزمية متاحًا عبر الرابط التالي: https://github.com/google-research/fixmatch.