MLSL: التعلم الذاتي متعدد المستويات للتكيف النطاقي مع تسمية مكانيّة مستقلة وموحّدة معنويًا

تعاني معظم خوارزميات التجزئة الدلالية الحديثة من أخطاء تعميم كبيرة، حتى عند استخدام نماذج تمثيل هرمية قوية تعتمد على الشبكات العصبية التلافيفية. ويمكن تفسير ذلك بوجود بيانات تدريب محدودة، وفجوة كبيرة في التوزيع بين مجموعات البيانات المستخدمة في التدريب والاختبار. في هذا البحث، نقترح نموذجًا تعلم ذاتي متعدد المستويات لتكيف المجال في التجزئة الدلالية. وباستغلال الفكرة القائلة بأن الكائن (والأغلبية من العناصر المحيطة مع مراعاة السياق) يجب أن يُعلّم بشكل متسق بغض النظر عن موقعه، نُولِّد علامات افتراضية مساحية مستقلة ومتسقة دلاليًا (SISC) من خلال تقسيم صور فرعية متعددة باستخدام النموذج الأساسي، مع تصميم استراتيجية تجميع فعّالة. كما نحسب علامات ضعيفة افتراضية على مستوى الصورة (PWL)، والتي تُستخدم لتوجيه تكيف المجال من خلال التقاط تشابه السياق العالمي بين المجال المصدر والهدف على مستوى الفضاء المخفي. وبذلك، يُسهم في تمكين الفضاء المخفي من تعلم التمثيل حتى عندما تكون عدد النقاط الواقعة ضمن فئة المجال صغيرة جدًا مقارنةً بالصورة بأكملها (مثل الكائنات الصغيرة مثلاً). يتفوق نموذج التعلم الذاتي متعدد المستويات (MLSL) الذي نقترحه على الخوارزميات الحالية المتميزة (سواءً ذاتية أو مبنية على التعلم المضاد). وبشكل خاص، مع الحفاظ على نفس الإعدادات واستخدام MLSL، نحقق زيادة في المقياس المعدل لـ mIoU بنسبة 5.1% في تكيف GTA-V إلى Cityscapes، و4.3% في تكيف SYNTHIA إلى Cityscapes، مقارنةً بالخوارزمية الحالية المتميزة.