HyperAIHyperAI
vor 11 Tagen

DupNet: Hin zu sehr kleinen quantisierten CNNs mit verbesserter Genauigkeit für die Gesichtserkennung

Hongxing Gao, Wei Tao, Dongchao Wen, Junjie Liu, Tse-Wei Chen, Kinya Osa, Masami Kato
DupNet: Hin zu sehr kleinen quantisierten CNNs mit verbesserter Genauigkeit für die Gesichtserkennung
Abstract

Die Implementierung von tiefen Lern-basierten Gesichtsdetektoren auf Edge-Geräten ist aufgrund der begrenzten Rechenressourcen eine anspruchsvolle Aufgabe. Obwohl die Binarisierung der Gewichte eines äußerst kleinen Netzwerks eine beeindruckende Komprimierung der Modellgröße ermöglicht (z. B. 240,9 KB für IFQ-Tinier-YOLO), ist dieses Modell dennoch nicht klein genug, um auf eingebetteten Geräten mit strengen Speicherbeschränkungen zu funktionieren. In diesem Paper stellen wir DupNet vor, das aus zwei Komponenten besteht. Erstens nutzen wir gewichtsintensive Schichten mit duplizierten Kanälen, um die Modellgröße zu verringern. Zweitens duplizieren wir die Eingabefeature-Maps für quantisierungs-sensitive Schichten, bei denen die Quantisierung zu einer signifikanten Genauigkeitsabnahme führt. Dadurch können wir mehr Gewichtskanäle verwenden, um repräsentativere Ausgaben zu erzeugen. Auf dieser Grundlage entwickeln wir einen äußerst kleinen Gesichtsdetektor, DupNet-Tinier-YOLO, der gegenüber IFQ-Tinier-YOLO eine 6,5-fach kleinere Modellgröße und eine um 42,0 % geringere Berechnungskomplexität aufweist, während gleichzeitig eine um 2,4 % höhere Erkennungsrate erreicht wird. Im Vergleich zum vollgenauen Tiny-YOLO erreichen wir eine Reduktion der Modellgröße um den Faktor 1.694,2 und der Berechnungskomplexität um den Faktor 389,9, wobei lediglich eine Genauigkeitsabnahme von 4,0 % (0,880 gegenüber 0,920) auftritt. Darüber hinaus beträgt die Modellgröße von DupNet-Tinier-YOLO nur 36,9 KB – das kleinste tiefes Gesichtsdetektionsmodell, das uns derzeit bekannt ist.

DupNet: Hin zu sehr kleinen quantisierten CNNs mit verbesserter Genauigkeit für die Gesichtserkennung | Neueste Forschungsarbeiten | HyperAI