Dicht Verbundene Faltungsnetzwerke

Neuere Arbeiten haben gezeigt, dass Faltungsnetze (Convolutional Networks) erheblich tiefer, genauer und effizienter trainiert werden können, wenn sie kürzere Verbindungen zwischen Schichten nahe dem Eingang und Schichten nahe dem Ausgang aufweisen. In dieser Arbeit greifen wir diese Beobachtung auf und stellen das dicht verbundene Faltungsnetz (Dense Convolutional Network, DenseNet) vor, das jede Schicht mit jeder anderen Schicht in feed-forward-Art verbindet. Während traditionelle Faltungsnetze mit L Schichten L Verbindungen haben – eine zwischen jeder Schicht und ihrer nachfolgenden Schicht – besitzt unser Netzwerk L(L+1)/2 direkte Verbindungen. Für jede Schicht werden die Merkmalskarten (Feature-maps) aller vorherigen Schichten als Eingänge verwendet, und ihre eigenen Merkmalskarten dienen als Eingänge für alle nachfolgenden Schichten. DenseNets bieten mehrere überzeugende Vorteile: Sie mildern das Problem der verschwindenden Gradienten, stärken die Merkmalspropagation, fördern die Wiederverwendung von Merkmalen und reduzieren die Anzahl der Parameter erheblich. Wir evaluieren unsere vorgeschlagene Architektur anhand von vier hochwettbewerbsfähigen Objekterkennungsbenchmarkaufgaben (CIFAR-10, CIFAR-100, SVHN und ImageNet). DenseNets erzielen bei den meisten dieser Aufgaben signifikante Verbesserungen gegenüber dem aktuellen Stand der Technik und benötigen weniger Berechnungen zur Erreichung hoher Leistung. Der Quellcode und vortrainierte Modelle sind unter https://github.com/liuzhuang13/DenseNet verfügbar.