التحليل الشامل للسمات شبه المُراقب من خلال التعلم المتكيف للمعادلة

نظرًا للكمية المحدودة وحتى غير المتوازنة للبيانات، غالبًا ما تُظهر تقنيات التجزئة الدلالية شبه المراقبة أداءً ضعيفًا في فئات معينة، مثل الفئات ذات التوزيع الطويل الذيل في مجموعة بيانات Cityscapes التي تُظهر توزيعًا طويل الذيل للعلامات. تتجاهل معظم الطرق الحالية هذه المشكلة، وتعامل الفئات بشكل متساوٍ. وبعض الطرق الشائعة مثل التماسك التقويمي أو التسمية الوهمية قد تؤدي إلى إلحاق الضرر بتعلم الفئات التي تؤدي بشكل ضعيف، حيث يمكن أن تكون التنبؤات أو التسميات الوهمية لهذه الفئات غير دقيقة بما يكفي لتوجيه التعلم على البيانات غير المُعلَّمة. في هذا البحث، نستعرض هذه المشكلة، ونُقدّم إطارًا جديدًا للتجزئة الدلالية شبه المراقبة يُسمى التعلم المتكافئ التكيّفي (AEL). يُوازن AEL تدريب الفئات الجيدة والضعيفة بشكل تكيّفي، باستخدام "مصرف ثقة" لتعقب أداء الفئات بشكل ديناميكي أثناء التدريب. ويُستخدم مصرف الثقة كمؤشر لتوجيه التدريب نحو الفئات ذات الأداء الضعيف، وذلك من خلال ثلاث استراتيجيات: (1) تقنيات تكبير بيانات تكيّفية (Copy-Paste وCutMix) تُمنح فيها الفئات الضعيفة فرصًا أكبر للنسخ أو القطع؛ (2) استراتيجية تكبير بيانات تكيّفية لتحفيز عينات من بكسلات الفئات الضعيفة؛ (3) طريقة بسيطة وفعالة لإعادة الوزن لتقليل الضوضاء الناتجة عن التسمية الوهمية. من الناحية التجريبية، يتفوق AEL على أحدث الطرق في معايير Cityscapes وPascal VOC تحت مختلف بروتوكولات التقسيم للبيانات. يُمكن الوصول إلى الكود من خلال الرابط: https://github.com/hzhupku/SemiSeg-AEL