اعثر عليه إن استطعت: الحذف العدوائي من البداية إلى النهاية للتقسيم الدلالي المُراقب بشكل ضعيف

يُعد التجزئة الدلالية مهمة تتطلب عادةً مجموعة بيانات كبيرة من العلامات الصحيحة على مستوى البكسل، والتي يُستغرق وقتًا طويلاً وتكاليف باهظة لجمعها. تُظهر التطورات الحديثة في البيئة المُشرَّفة بشكل ضعيف أن الأداء المعقول يمكن تحقيقه باستخدام علامات على مستوى الصورة فقط. غالبًا ما تُستخدم التصنيف كمهمة بديلة لتدريب شبكة عصبية عميقة، من خلالها يتم استخراج خرائط الانتباه. ومع ذلك، فإن مهمة التصنيف تحتاج فقط إلى أدنى دليل لتوليد التنبؤات، وبالتالي تركز على المناطق الأكثر تمييزًا للجسم. ول superar هذه المشكلة، نقترح صيغة جديدة لحذف الانتباه بالطريقة العدوية. على عكس الطرق السابقة للحذف العدوية، نُحسّن شبكتين معًا باستخدام دوال خسارة متعارضة، مما يُلغِي الحاجة إلى استراتيجيات غير مثالية معينة؛ على سبيل المثال، وجود خطوات تدريب متعددة التي تُعقّد عملية التدريب، أو سياسة مشاركة الأوزان بين الشبكات العاملة على توزيعات مختلفة، والتي قد تكون غير مثالية من حيث الأداء. لا تتطلب الحل المقترح أقنعة التميز، بل يستخدم خسارة تنظيمية لمنع خرائط الانتباه من الانتشار إلى مناطق الجسم الأقل تمييزًا. تُظهر تجاربنا على مجموعة بيانات Pascal VOC أن نهجنا العدواني يزيد من أداء التجزئة بنسبة 2.1 نقطة mIoU مقارنةً بالأساسية، وبنسبة 1.0 نقطة mIoU مقارنةً بالطرق السابقة للحذف العدوية.