HyperAIHyperAI
vor 17 Tagen

ISyNet: Entwurf von Faltungsneuralen Netzen für AI-Acceleratoren

Alexey Letunovskiy, Vladimir Korviakov, Vladimir Polovnikov, Anastasiia Kargapoltseva, Ivan Mazurenko, Yepan Xiong
ISyNet: Entwurf von Faltungsneuralen Netzen für AI-Acceleratoren
Abstract

In den letzten Jahren erreichten Deep-Learning-Verfahren signifikante Fortschritte bei einer Vielzahl praktischer Anwendungen, wie beispielsweise Computer Vision, Natural Language Processing, Spracherkennung und vielen weiteren Bereichen. Jahrzehntelang lag der Fokus der Forschung vor allem auf der Verbesserung der Modellqualität, selbst wenn die Komplexität unpraktisch hoch war. Für Produktionslösungen, die oft Echtzeitverarbeitung erfordern, spielt jedoch die Latenz des Modells eine entscheidende Rolle. Aktuelle State-of-the-Art-Architekturen werden mittels Neural Architecture Search (NAS) identifiziert, wobei die Modellkomplexität berücksichtigt wird. Dennoch bleibt die Gestaltung von Suchräumen, die spezifisch auf bestimmte Hardware abgestimmt sind, eine herausfordernde Aufgabe. Um dieses Problem anzugehen, schlagen wir folgende Beiträge vor: eine Maßzahl für die Hardware-Effizienz von NAS-Suchräumen – die Matrix-Effizienz-Maßzahl (Matrix Efficiency Measure, MEM); einen Suchraum, der ausschließlich hardwareeffiziente Operationen enthält; eine latenzbewusste Skalierungsmethode; sowie ISyNet – eine Reihe von Architekturen, die gleichzeitig schnell auf spezialisierten Neural Processing Unit (NPU)-Hardwareplattformen und hochgenau sind. Wir demonstrieren die Vorteile der entworfenen Architekturen für NPU-Geräte anhand des ImageNet-Datensatzes sowie deren Generalisierungsfähigkeit auf nachgeschaltete Klassifikations- und Detektionsaufgaben.