Command Palette
Search for a command to run...
Globale Aggregation gefolgt von lokaler Verteilung in vollständig konvolutionellen Netzwerken
Globale Aggregation gefolgt von lokaler Verteilung in vollständig konvolutionellen Netzwerken
Xiangtai Li Li Zhang Ansheng You Maoke Yang Kuiyuan Yang Yunhai Tong
Zusammenfassung
Es wurde weitgehend nachgewiesen, dass die Modellierung langreichweitiger Abhängigkeiten in vollständig konvolutionellen Netzwerken (FCNs) mittels globaler Aggregationsmodule entscheidend für komplexe Szenenverstehensaufgaben wie semantische Segmentierung und Objektdetektion ist. Allerdings wird die globale Aggregation oft von Merkmalen großer Muster dominiert und neigt dazu, Regionen mit kleinen Mustern (z. B. Grenzflächen und kleine Objekte) übermäßig zu glätten. Um dieses Problem zu lösen, schlagen wir vor, zunächst Global Aggregation und anschließend Local Distribution anzuwenden, was als GALD bezeichnet wird. Dabei werden langreichweitige Abhängigkeiten verlässlicher innerhalb von großen Musterregionen genutzt und umgekehrt. Die Größe jedes Musters an jeder Position wird im Netzwerk als kanalweises Maskenbild geschätzt. GALD ist end-to-end trainierbar und kann problemlos in bestehende FCNs mit verschiedenen globalen Aggregationsmodulen integriert werden, um eine Vielzahl von visuellen Aufgaben zu lösen, und verbessert konsistent die Leistung von state-of-the-art-Ansätzen zur Objektdetektion und Instanzsegmentierung. Insbesondere erreicht GALD bei der semantischen Segmentierung auf dem Cityscapes-Testset eine neue state-of-the-art-Leistung mit einem mIoU von 83,3 %. Der Quellcode ist unter folgender URL verfügbar: \url{https://github.com/lxtGH/GALD-Net}