Effiziente Faltungsneuronale Netze auf Raspberry Pi für die Bildklassifikation

Aufgrund der hervorragenden Leistung von Deep-Learning-Algorithmen im Bereich des Computer Vision (CV) ist die Architektur von Faltungsneuralen Netzen (Convolutional Neural Networks, CNN) zu einem zentralen Baustein vieler Computer-Vision-Aufgaben geworden. Mit der zunehmenden Verbreitung mobiler Geräte gewinnt zunehmend Aufmerksamkeit, dass neuronale Netzwerke auf Plattformen mit geringer Rechenleistung entwickelt werden. Aufgrund der begrenzten Rechenkapazität sind Deep-Learning-Algorithmen jedoch in der Regel auf mobilen Geräten nicht direkt einsetzbar. In dieser Arbeit wird ein leichtgewichtiges Faltungsneuronales Netz, TripleNet, vorgestellt, das effizient auf einem Raspberry Pi betrieben werden kann. Inspiriert vom Konzept von Blockverbindungen in ThreshNet wird das neu vorgeschlagene Netzwerkmodell komprimiert und beschleunigt, wodurch die Anzahl der Parameter reduziert und die Inferenzzeit pro Bild verkürzt wird, ohne die Genauigkeit zu beeinträchtigen. Die vorgeschlagene TripleNet sowie andere state-of-the-art (SOTA)-Neuronale Netzwerke werden anhand der Datensätze CIFAR-10 und SVHN auf einem Raspberry Pi zur Bildklassifizierung getestet. Die experimentellen Ergebnisse zeigen, dass die Inferenzzeit pro Bild im Vergleich zu GhostNet, MobileNet, ThreshNet, EfficientNet und HarDNet um 15 %, 16 %, 17 %, 24 % und 30 % verkürzt wird. Die vollständigen Quellcodes dieses Projekts sind unter https://github.com/RuiyangJu/TripleNet verfügbar.