GCoNet+: Ein stärkerer Gruppenkollaborativer Co-Salient-Objekterkennungsdetektor

In dieser Arbeit stellen wir ein neues End-to-End-Gruppen-Kollaborations-Lernnetzwerk vor, das GCoNet+ genannt wird und effektiv sowie effizient (250 fps) ko-saliente Objekte in natürlichen Szenen identifizieren kann. Das vorgeschlagene GCoNet+ erreicht die neue Stand der Technik in der Detektion von ko-salienten Objekten (CoSOD), indem es Konsensrepräsentationen auf der Grundlage der folgenden zwei wesentlichen Kriterien abgräbt: 1) Intra-Gruppen-Kompaktheit zur besseren Formulierung der Kohärenz unter ko-salienten Objekten durch Erfassung ihrer inhärenten gemeinsamen Attribute mit unserem neuartigen Gruppenaffinitätmodul (GAM); 2) Inter-Gruppen-Trennbarkeit zur effektiven Unterdrückung des Einflusses störender Objekte auf die Ausgabe durch Einführung unseres neuen Gruppenkollaborationsmoduls (GCM), das auf inkonsistentem Konsens konditioniert ist. Um die Genauigkeit weiter zu verbessern, haben wir eine Reihe einfacher, aber effektiver Komponenten entwickelt, wie folgt: i) ein rekurrentes Hilfsklassifikationsmodul (RACM), das das Modelllernen auf semantischem Niveau fördert; ii) ein Vertrauenssteigerungsmodul (CEM), das dem Modell bei der Verbesserung der Qualität der endgültigen Vorhersagen hilft; und iii) einen gruppenbasierten symmetrischen Triplettenverlust (GST), der das Modell anleitet, diskriminativere Merkmale zu lernen. Ausführliche Experimente an drei anspruchsvollen Benchmarks, nämlich CoCA, CoSOD3k und CoSal2015, zeigen, dass unser GCoNet+ 12 bestehende Spitzenmodelle übertrifft. Der Quellcode wurde veröffentlicht unter https://github.com/ZhengPeng7/GCoNet_plus.