{ Martin Jagersand Masood Dehghan Chao Gao Chenyang Huang Zichen Zhang Xuebin Qin}

Abstract
Tief verbundene neuronale Netze haben sich für die Erkennung auffälliger Objekte etabliert und erreichen dabei den Stand der Technik. Die meisten vorherigen Arbeiten konzentrieren sich jedoch auf die Genauigkeit der Regionserkennung, weniger auf die Qualität der Objektränder. In diesem Artikel stellen wir eine neue Architektur namens BASNet sowie eine neuartige hybride Verlustfunktion für die randbewusste Erkennung auffälliger Objekte vor. Konkret besteht die Architektur aus einem dicht überwachten Encoder-Decoder-Netzwerk und einem Residual-Refinement-Modul, die jeweils für die Vorhersage der Auffälligkeit und die Feinjustierung der Auffälligkeitskarte verantwortlich sind. Die hybride Verlustfunktion leitet das Netzwerk an, die Transformation zwischen dem Eingabebild und der Ground-Truth auf einer dreistufigen Hierarchie – auf Pixel-, Patch- und Karten-Ebene – zu lernen, indem sie die Verluste der binären Kreuzentropie (BCE), der strukturellen Ähnlichkeit (SSIM) und der Intersection-over-Union (IoU) kombiniert. Mit der hybriden Verlustfunktion ist die vorgeschlagene predict-refine-Architektur in der Lage, auffällige Objektregionen effektiv zu segmentieren und feine Strukturen mit klaren Rändern präzise vorherzusagen. Experimentelle Ergebnisse auf sechs öffentlichen Datensätzen zeigen, dass unsere Methode sowohl in Bezug auf regionale als auch auf randbezogene Evaluationsmaße die der derzeitigen State-of-the-Art-Methoden übertrifft. Unser Ansatz läuft auf einer einzigen GPU mit über 25 fps. Der Quellcode ist unter folgender URL verfügbar: https://github.com/NathanUA/BASNet.
Benchmarks
| Benchmark | Methodik | Metriken |
|---|---|---|
| camouflaged-object-segmentation-on-camo | BASNet | MAE: 0.159 S-Measure: 0.618 Weighted F-Measure: 0.413 |
| camouflaged-object-segmentation-on-cod | BASNet | MAE: 0.092 S-Measure: 0.685 Weighted F-Measure: 0.352 |
| camouflaged-object-segmentation-on-pcod-1200 | BASNet | S-Measure: 0.837 |
| dichotomous-image-segmentation-on-dis-te1 | BASNet | E-measure: 0.801 HCE: 220 MAE: 0.084 S-Measure: 0.754 max F-Measure: 0.688 weighted F-measure: 0.595 |
| dichotomous-image-segmentation-on-dis-te2 | BASNet | E-measure: 0.836 HCE: 480 MAE: 0.084 S-Measure: 0.786 max F-Measure: 0.755 weighted F-measure: 0.668 |
| dichotomous-image-segmentation-on-dis-te3 | BASNet | E-measure: 0.856 HCE: 948 MAE: 0.083 S-Measure: 0.798 max F-Measure: 0.785 weighted F-measure: 0.696 |
| dichotomous-image-segmentation-on-dis-te4 | BASNet | E-measure: 0.848 HCE: 3601 MAE: 0.091 S-Measure: 0.794 max F-Measure: 0.780 weighted F-measure: 0.693 |
| dichotomous-image-segmentation-on-dis-vd | BASNet | E-measure: 0.816 HCE: 1402 MAE: 0.094 S-Measure: 0.768 max F-Measure: 0.731 weighted F-measure: 0.641 |
| salient-object-detection-on-dut-omron | BASNet | MAE: 0.056 |
| salient-object-detection-on-duts-te | BASNet | MAE: 0.047 S-Measure: 0.876 mean E-Measure: 0.896 mean F-Measure: 0.823 |
| salient-object-detection-on-ecssd | BASNet | MAE: 0.037 |
| salient-object-detection-on-hku-is | BASNet | MAE: 0.032 |
| salient-object-detection-on-pascal-s | BASNet | MAE: 0.076 |
| salient-object-detection-on-soc | BASNet | Average MAE: 0.092 S-Measure: 0.841 mean E-Measure: 0.864 |
| salient-object-detection-on-sod | BASNet | MAE: 0.114 |
KI mit KI entwickeln
Von der Idee bis zum Start — beschleunigen Sie Ihre KI-Entwicklung mit kostenlosem KI-Co-Coding, sofort einsatzbereiter Umgebung und den besten GPU-Preisen.