HyperAIHyperAI
il y a un mois

SqueezeNet : Précision au niveau d’AlexNet avec 50 fois moins de paramètres et une taille de modèle inférieure à 0,5 Mo

Forrest N. Iandola; Song Han; Matthew W. Moskewicz; Khalid Ashraf; William J. Dally; Kurt Keutzer
SqueezeNet : Précision au niveau d’AlexNet avec 50 fois moins de paramètres et une taille de modèle inférieure à 0,5 Mo
Résumé

Les recherches récentes sur les réseaux neuronaux profonds se sont principalement concentrées sur l'amélioration de la précision. Pour un niveau de précision donné, il est généralement possible d'identifier plusieurs architectures de DNN (Deep Neural Networks) atteignant ce niveau de précision. Avec une précision équivalente, les architectures de DNN plus petites offrent au moins trois avantages : (1) Les DNN plus petits nécessitent moins de communication entre les serveurs lors de l'entraînement distribué. (2) Les DNN plus petits nécessitent moins de bande passante pour exporter un nouveau modèle du cloud à une voiture autonome. (3) Les DNN plus petits sont plus faciles à déployer sur des FPGA et d'autres matériels à mémoire limitée.Pour fournir tous ces avantages, nous proposons une architecture de DNN appelée SqueezeNet. SqueezeNet atteint une précision comparable à celle d'AlexNet sur ImageNet avec 50 fois moins de paramètres. De plus, en utilisant des techniques de compression de modèles, nous sommes capables de compresser SqueezeNet à moins de 0,5 Mo (510 fois plus petit que AlexNet).L'architecture SqueezeNet est disponible pour téléchargement ici : https://github.com/DeepScale/SqueezeNet

SqueezeNet : Précision au niveau d’AlexNet avec 50 fois moins de paramètres et une taille de modèle inférieure à 0,5 Mo | Articles de recherche récents | HyperAI