FreeSeg: قناع مجاني من التدريب المسبق للغة والصورة التقابلية القابلة للتفسير للتقسيم الدلالي

يتعلم التجزئة الدلالية الكاملة المراقبة من خلال الأقنعة الكثيفة، مما يتطلب تكلفة تسمية عالية في البيئة المغلقة. في هذه الورقة، نستخدم اللغة الطبيعية كمصدر للإشراف دون أي تسمية على مستوى البكسل لمشكلة التجزئة في العالم المفتوح. نسمي الإطار المقترح بـ FreeSeg، حيث تكون الأقنعة متاحة بشكل مجاني من الخريطة المميزة الأولية لنموذج التدريب المسبق. مقارنةً بالتقنيات ذات الصفر المُعلَّم أو التجزئة في البيئة المفتوحة، لا يتطلب FreeSeg أي أقنعة مُعلَّمة، ويُقدّم تنبؤات واسعة النطاق تتجاوز التجزئة غير المُعلَّمة دون الاعتماد على الفئة. وبشكل خاص، يحصل FreeSeg على القناع المجاني من خريطة التشابه بين الصورة والنص (ITSM) الناتجة عن التدريب المسبق القابل للتفسير للغة والصورة (ICLIP). كما أن تحسيناتنا الأساسية تشمل استخدام التجميع المُعدّل الأدنى (smoothed min pooling) لنموذج ICLIP الكثيف، بالإضافة إلى استراتيجيات التسمية الجزئية واستراتيجية البكسل للتجزئة. علاوةً على البساطة، تفوق أداء FreeSeg الأداء المُتقدم السابق بفارق كبير، مثلاً بزيادة 13.4% في مقياس mIoU على مجموعة بيانات VOC ضمن نفس الشروط.