HyperAIHyperAI

Command Palette

Search for a command to run...

Quantisierung und Pruning für die Kompression und Regularisierung von neuronalen Netzen

Kimessha Paupamah Steven James Richard Klein

Zusammenfassung

Tiefere neuronale Netze sind typischerweise zu rechenintensiv, um in Echtzeit auf herkömmlicher Hardware und energiearmen Geräten ausgeführt zu werden. In diesem Paper untersuchen wir die Reduzierung der rechnerischen und speicherbasierten Anforderungen neuronaler Netze durch Netzwerkpruning und Quantisierung. Wir bewerten deren Wirksamkeit an großen Netzwerken wie AlexNet im Vergleich zu jüngeren kompakten Architekturen: ShuffleNet und MobileNet. Unsere Ergebnisse zeigen, dass Pruning und Quantisierung diese Netzwerke auf weniger als die Hälfte ihrer ursprünglichen Größe komprimiert und deren Effizienz verbessert, insbesondere bei MobileNet mit einer Geschwindigkeitssteigerung um das 7-fache. Zudem zeigen wir, dass Pruning nicht nur die Anzahl der Parameter in einem Netzwerk verringert, sondern auch zur Korrektur von Overfitting beitragen kann.


KI mit KI entwickeln

Von der Idee bis zum Launch – beschleunigen Sie Ihre KI-Entwicklung mit kostenlosem KI-Co-Coding, sofort einsatzbereiter Umgebung und bestem GPU-Preis.

KI-gestütztes kollaboratives Programmieren
Sofort einsatzbereite GPUs
Die besten Preise

HyperAI Newsletters

Abonnieren Sie unsere neuesten Updates
Wir werden die neuesten Updates der Woche in Ihren Posteingang liefern um neun Uhr jeden Montagmorgen
Unterstützt von MailChimp