HyperAIHyperAI
منذ 2 أشهر

التكيف غير المراقب للنطاق في التجزئة الدلالية من خلال التدريب الذاتي المتوازن حسب الفئة

{B. V. K. Vijaya Kumar, Yang Zou, Zhiding Yu, Jinsong Wang}
التكيف غير المراقب للنطاق في التجزئة الدلالية من خلال التدريب الذاتي المتوازن حسب الفئة
الملخص

أحرزت الشبكات العميقة الحديثة تقدماً ملحوظاً في أداء المهام المختلفة للفهرسة الدلالية (semantic segmentation). وعلى الرغم من هذا التقدم، تواجه هذه النماذج في كثير من الأحيان تحديات في المهام الواقعية "البرية" (wild tasks)، حيث توجد فروق كبيرة بين بيانات التدريب المُعلمة (البيانات المصدرية) والبيانات غير المرئية (البيانات الهدفية) أثناء الاختبار. وبشكل خاص، يُعرف هذا الفرق بـ "فجوة المجال" (domain gap)، ويمكن أن يؤدي إلى انخفاض كبير في الأداء، وهو ما لا يمكن معالجته بسهولة من خلال زيادة قدرة التمثيل فقط. ويسعى التكييف غير المُعلَّم للمجال (Unsupervised Domain Adaptation - UDA) إلى التغلب على هذه المشكلة دون الحاجة إلى تسميات للبيانات الهدفية. في هذه الورقة، نقترح إطاراً جديداً لـ UDA يقوم على عملية تدريب ذاتي تكرارية (iterative self-training - ST)، حيث يتم صياغة المشكلة على شكل تقليل لخسارة متغيرات خفية (latent variable loss minimization)، ويمكن حلها من خلال توليد تسميات وهمية (pseudo labels) بشكل متكرر على البيانات الهدفية وإعادة تدريب النموذج باستخدام هذه التسميات. وبالإضافة إلى ذلك، نقترح إطاراً جديداً يُسمى "التدريب الذاتي المتوازن حسب الفئات" (Class-Balanced Self-Training - CBST) للحد من هيمنة الفئات الكبيرة تدريجياً على عملية توليد التسميات الوهمية، كما نُدخل معلومات أولية مكانيّة (spatial priors) لتحسين دقة التسميات المولدة. وأظهرت التجارب الشاملة أن الأساليب المقترحة تحقق أداءً متفوّقاً على مستوى الحد الأقصى (state-of-the-art) في فهرسة الدلالة في ظلّ عدة بيئات رئيسية لـ UDA.

التكيف غير المراقب للنطاق في التجزئة الدلالية من خلال التدريب الذاتي المتوازن حسب الفئة | الأوراق البحثية | HyperAI