DCNAS: Densely Connected Neural Architecture Search für die semantische Bildsegmentierung

Neural Architecture Search (NAS) hat großes Potenzial bei der automatischen Gestaltung skalierbarer Netzwerkarchitekturen für dichte Bildvorhersagen gezeigt. Allerdings kompromittieren bestehende NAS-Algorithmen häufig die Suchraumgröße und führen die Suche auf Proxy-Aufgaben durch, um die praktisch erreichbaren rechnerischen Anforderungen zu erfüllen. Um möglichst breite Netzwerkarchitekturen zu ermöglichen und die Diskrepanz zwischen Ziel- und Proxy-Datensatz zu vermeiden, schlagen wir einen Densely Connected NAS (DCNAS)-Ansatz vor, der direkt optimale Netzwerkstrukturen für mehrskalige Darstellungen visueller Informationen über einem großskaligen Ziel-Datensatz sucht. Konkret führen wir durch die Verwendung lernbarer Gewichte zur Verbindung von Zellen untereinander einen dicht verbundenen Suchraum ein, der eine Vielzahl gängiger Netzwerkdesigns abdeckt. Darüber hinaus kombinieren wir Pfad- und Kanal-Level-Sampling-Strategien, um ein Fusionsmodul zu entwerfen, das den Speicherverbrauch bei umfangreichen Suchräumen signifikant reduziert. Wir zeigen, dass die von unserem DCNAS-Algorithmus ermittelte Architektur auf öffentlichen Benchmarks für semantische Bildsegmentierung Spitzenleistungen erzielt, darunter 84,3 % auf Cityscapes und 86,9 % auf PASCAL VOC 2012. Zudem behalten wir führende Ergebnisse bei der Bewertung der Architektur auf anspruchsvolleren Datensätzen wie ADE20K und Pascal Context.