Command Palette
Search for a command to run...
GhostNet: Mehr Features aus kostengünstigen Operationen
GhostNet: Mehr Features aus kostengünstigen Operationen
Kai Han Yunhe Wang Qi Tian Jianyuan Guo Chunjing Xu Chang Xu
Zusammenfassung
Die Implementierung von Faltungsneuralen Netzen (CNNs) auf eingebetteten Geräten ist aufgrund der begrenzten Speicher- und Rechenressourcen schwierig. Die Redundanz in den Feature-Maps stellt eine wichtige Eigenschaft erfolgreicher CNNs dar, wurde jedoch in der Gestaltung neuronaler Architekturen bisher selten untersucht. In diesem Artikel wird ein neuartiges Ghost-Modul vorgestellt, das zusätzliche Feature-Maps durch kostengünstige Operationen erzeugt. Auf Basis einer Menge von intrinsischen Feature-Maps wenden wir eine Reihe linearer Transformationen mit geringem Aufwand an, um zahlreiche Ghost-Feature-Maps zu generieren, die die zugrundeliegenden Informationen der intrinsischen Merkmale vollständig aufzeigen können. Das vorgeschlagene Ghost-Modul kann als plug-and-play-Komponente genutzt werden, um bestehende Faltungsneuronale Netze zu verbessern. Ghost-Bottlenecks wurden speziell entworfen, um mehrere Ghost-Module zu stapeln, wodurch das leichtgewichtige GhostNet einfach aufgebaut werden kann. Experimente an etablierten Benchmarks zeigen, dass das vorgeschlagene Ghost-Modul eine überzeugende Alternative zu herkömmlichen Faltungsoperationen in Baseline-Modellen darstellt. Unser GhostNet erreicht auf dem ImageNet ILSVRC-2012 Klassifikationsdatensatz eine höhere Erkennungsleistung (z. B. 75,7 % Top-1-Accuracy) als MobileNetV3 bei vergleichbarem Berechnungsaufwand. Der Quellcode ist unter https://github.com/huawei-noah/ghostnet verfügbar.