GCoNet+: كاشف الأجسام المشتركة الأكثر تعاونًا في المجموعات

في هذا البحث، نقدم شبكة تعلم تعاونية مجموعات جديدة من النهاية إلى النهاية، أطلقنا عليها اسم GCoNet+، والتي يمكنها تحديد الأشياء المشتركة في المشاهد الطبيعية بفعالية وكفاءة (250 إطار في الثانية). يحقق GCoNet+ المقترح أداءً جديدًا على مستوى الحالة الفنية لتحديد الأشياء المشتركة (CoSOD) من خلال استخراج التمثيلات المتفق عليها بناءً على المعيارين الأساسيين التاليين: 1) الكثافة داخل المجموعة لصياغة أفضل للتوافق بين الأشياء المشتركة عن طريق التقاط الصفات المشتركة الذاتية باستخدام وحدة الارتباط الجديدة للمجموعات (GAM)؛ 2) الانفصال بين المجموعات لتقليل تأثير الأشياء الضوضائية على الإخراج من خلال تقديم وحدة التعاون الجديدة للمجموعات (GCM) التي تعتمد على التوافق غير المتسق. لتحسين الدقة بشكل أكبر، صممنا سلسلة من المكونات البسيطة ولكن الفعالة كالتالي: i) وحدة تصنيف مساعدة متكررة (RACM) تعزز التعلم النموذجي على المستوى الدلالي؛ ii) وحدة تعزيز الثقة (CEM) تساعد النموذج في تحسين جودة التنبؤات النهائية؛ وiii) خسارة ثلاثية متناظرة قائمة على المجموعات (GST) توجه النموذج إلى تعلم الخصائص الأكثر تمييزًا. أظهرت التجارب الواسعة على ثلاثة مقاييس صعبة، وهي CoCA وCoSOD3k وCoSal2015، أن GCoNet+ الخاص بنا يتفوق على 12 نموذجًا رائدًا موجودًا. تم إصدار الرمز المصدر في https://github.com/ZhengPeng7/GCoNet_plus.