RGBD-Salient-Objekt-Erkennung durch tiefes Fusing

Zahlreiche Anstrengungen wurden unternommen, um verschiedene Niedrig-Level-Salienzmerkmale für die Salienzerkennung in RGBD-Bildern zu entwickeln, wie z.B. Farb- oder Tiefenkontrastmerkmale, Hintergrund- und Farbdichte-Priorisierungen. Dennoch bleibt es eine herausfordernde Aufgabe, zu verstehen, wie diese Salienzmerkmale miteinander interagieren und wie man diese Niedrig-Level-Salienzmerkmale effektiv kombiniert, um eine übergeordnete Salienzkarte zu generieren. In dieser Arbeit entwerfen wir ein neues konvolutions neuronales Netzwerk (CNN), das verschiedene Niedrig-Level-Salienzmerkmale in hierarchische Merkmale fusioniert, um saliente Objekte in RGBD-Bildern automatisch zu erkennen. Im Gegensatz zu bisherigen Ansätzen, die rohe Bildpixel direkt dem CNN zur Verfügung stellen, nutzt die vorgeschlagene Methode das Wissen aus traditionellen Salienzerkennungsverfahren, indem sie sinnvolle und gut gestaltete Salienz-Feature-Vektoren als Eingabe verwendet. Dies kann die Trainierung des CNNs effektiver auf die Erkennung salienter Objekte ausrichten, da die Lernunsicherheit reduziert wird. Anschließend integrieren wir einen Laplace-Verbreitungsrahmen mit dem trainierten CNN, um durch Ausnutzung der intrinsischen Struktur des Eingangsbildes eine räumlich konsistente Salienzkarte zu extrahieren. Umfangreiche quantitative und qualitative experimentelle Bewertungen auf drei Datensätzen zeigen, dass die vorgeschlagene Methode konsistent bessere Ergebnisse als state-of-the-art-Methoden erzielt.