مُحَوِّل مُتَعَبِّرٌ عَنْ تَحَوُّلِ تَوْحِيدِ المَلَامِحِ لِلِتَعْدِيلِ الْمُحَوَّلِ غَيْرِ الْمُرَاقَبَةِ

تهدف التكييف غير المُراقب للنطاق (UDA) إلى استغلال المعرفة المكتسبة من المجالات المصدرية المُعلمة لتحسين الأداء على المجالات الهدف غير المُعلمة. وعلى الرغم من أن الشبكات العصبية التلافيفية (CNNs) كانت هي السائدة في الطرق السابقة لـ UDA، إلا أن الأبحاث الحديثة أظهرت إمكانات واعدة في تطبيق نماذج الرؤية المُتحوّلة (ViTs) على هذه المهمة. في هذه الدراسة، نقترح نموذجًا جديدًا يُدعى "مُحول التحويل القائم على تقييم قابلية التحويل في التجميع المميزات" (FFTAT) لتعزيز أداء ViTs في مهام UDA. ويتميز هذا النهج بابتكارين رئيسيين: أولاً، نُقدّم مُميّزًا للقطع (patch discriminator) لتقييم قابلية تحويل القطع، مما يُنتج مصفوفة قابلية تحويل. ونُدمج هذه المصفوفة في آلية الانتباه الذاتي، مما يوجه النموذج لتركيز انتباهه على القطع القابلة للتحويل. ثانيًا، نقترح تقنية تجميع الميزات لدمج التضمينات في الفضاء الخفي، مما يمكّن كل تضمين من احتواء معلومات من جميع التضمينات الأخرى، وبالتالي تحسين القدرة على التعميم. تعمل هذه المكوّنان معًا بشكل تكاملي لتعزيز تعلّم تمثيل الميزات. وقد أظهرت تجارب واسعة النطاق على معايير شائعة الاستخدام تحسنًا ملحوظًا في أداء UDA، مع تحقيق نتائج متفوّقة على مستوى الحد الأقصى (SOTA).