HyperAIHyperAI
vor 2 Monaten

HarDNet: Ein Netzwerk mit geringem Speicherdatenverkehr

Ping Chao; Chao-Yang Kao; Yu-Shan Ruan; Chien-Hsiang Huang; Youn-Long Lin
HarDNet: Ein Netzwerk mit geringem Speicherdatenverkehr
Abstract

Zustandsder-kunst neuronale Netzarchitekturen wie ResNet, MobileNet und DenseNet haben eine außergewöhnliche Genauigkeit bei geringeren MACs (Multiplikationen-Akkumulationen) und kleinerem Modellvolumen erreicht. Allerdings können diese Metriken die Vorhersage der Inferenzzeit nicht immer genau sein. Wir schlagen vor, dass der Speicherdatenverkehr für den Zugriff auf Zwischenfeaturemaps ein Faktor sein kann, der die Inferenzlatenz dominiert, insbesondere bei Aufgaben wie Echtzeit-Objekterkennung und semantische Segmentierung von Hochauflösungsvidéos. Wir stellen ein harmonisch dicht verbundenes Netzwerk (Harmonic Densely Connected Network) vor, das sowohl in Bezug auf geringe MACs als auch auf geringen Speicherdatenverkehr hohe Effizienz erzielt. Das neue Netzwerk erreicht im Vergleich zu FC-DenseNet-103, DenseNet-264, ResNet-50, ResNet-152 und SSD-VGG Inferenzzeitsverkürzungen von 35 %, 36 %, 30 %, 32 % und 45 %, jeweils. Wir verwenden Werkzeuge wie den Nvidia Profiler und ARM Scale-Sim, um den Speicherdatenverkehr zu messen und zu verifizieren, dass die Inferenzlatenz tatsächlich proportional zum Speicherdatenverkehrsbedarf ist und das vorgeschlagene Netzwerk einen niedrigen Speicherdatenverkehr verbraucht. Wir ziehen den Schluss, dass man bei der Gestaltung von neuronalen Netzarchitekturen für hochauflösende Anwendungen am Edge den Speicherdatenverkehr berücksichtigen sollte.

HarDNet: Ein Netzwerk mit geringem Speicherdatenverkehr | Neueste Forschungsarbeiten | HyperAI