HyperAIHyperAI

Command Palette

Search for a command to run...

Quantification et élagage pour la compression et la régularisation des réseaux de neurones

Kimessha Paupamah Steven James Richard Klein

Résumé

Les réseaux de neurones profonds sont généralement trop coûteux en termes de calcul pour être exécutés en temps réel sur du matériel grand public ou des dispositifs à faible puissance. Dans cet article, nous étudions la réduction des exigences en calcul et en mémoire des réseaux de neurones grâce à la suppression de connexions (pruning) et à la quantification. Nous évaluons leur efficacité sur de grands réseaux tels qu’AlexNet, en les comparant à des architectures récentes compactes : ShuffleNet et MobileNet. Nos résultats montrent que la combinaison de la pruning et de la quantification permet de réduire la taille de ces réseaux à moins de la moitié de leur taille initiale, tout en améliorant significativement leur efficacité, notamment sur MobileNet où une accélération de 7 fois est observée. Nous démontrons également que la pruning, en plus de réduire le nombre de paramètres d’un réseau, peut contribuer à corriger le surajustement (overfitting).


Créer de l'IA avec l'IA

De l'idée au lancement — accélérez votre développement IA avec le co-codage IA gratuit, un environnement prêt à l'emploi et le meilleur prix pour les GPU.

Codage assisté par IA
GPU prêts à l’emploi
Tarifs les plus avantageux

HyperAI Newsletters

Abonnez-vous à nos dernières mises à jour
Nous vous enverrons les dernières mises à jour de la semaine dans votre boîte de réception à neuf heures chaque lundi matin
Propulsé par MailChimp
Quantification et élagage pour la compression et la régularisation des réseaux de neurones | Articles | HyperAI