BASNet: boundary-aware salient object detection

Tief verbundene neuronale Netze haben sich für die Erkennung auffälliger Objekte etabliert und erreichen dabei den Stand der Technik. Die meisten vorherigen Arbeiten konzentrieren sich jedoch auf die Genauigkeit der Regionserkennung, weniger auf die Qualität der Objektränder. In diesem Artikel stellen wir eine neue Architektur namens BASNet sowie eine neuartige hybride Verlustfunktion für die randbewusste Erkennung auffälliger Objekte vor. Konkret besteht die Architektur aus einem dicht überwachten Encoder-Decoder-Netzwerk und einem Residual-Refinement-Modul, die jeweils für die Vorhersage der Auffälligkeit und die Feinjustierung der Auffälligkeitskarte verantwortlich sind. Die hybride Verlustfunktion leitet das Netzwerk an, die Transformation zwischen dem Eingabebild und der Ground-Truth auf einer dreistufigen Hierarchie – auf Pixel-, Patch- und Karten-Ebene – zu lernen, indem sie die Verluste der binären Kreuzentropie (BCE), der strukturellen Ähnlichkeit (SSIM) und der Intersection-over-Union (IoU) kombiniert. Mit der hybriden Verlustfunktion ist die vorgeschlagene predict-refine-Architektur in der Lage, auffällige Objektregionen effektiv zu segmentieren und feine Strukturen mit klaren Rändern präzise vorherzusagen. Experimentelle Ergebnisse auf sechs öffentlichen Datensätzen zeigen, dass unsere Methode sowohl in Bezug auf regionale als auch auf randbezogene Evaluationsmaße die der derzeitigen State-of-the-Art-Methoden übertrifft. Unser Ansatz läuft auf einer einzigen GPU mit über 25 fps. Der Quellcode ist unter folgender URL verfügbar: https://github.com/NathanUA/BASNet.