HyperAIHyperAI

Command Palette

Search for a command to run...

SqueezeNet : Précision au niveau d’AlexNet avec 50 fois moins de paramètres et une taille de modèle inférieure à 0,5 Mo

Forrest N. Iandola Song Han Matthew W. Moskewicz Khalid Ashraf William J. Dally Kurt Keutzer

Résumé

Les recherches récentes sur les réseaux neuronaux profonds se sont principalement concentrées sur l'amélioration de la précision. Pour un niveau de précision donné, il est généralement possible d'identifier plusieurs architectures de DNN (Deep Neural Networks) atteignant ce niveau de précision. Avec une précision équivalente, les architectures de DNN plus petites offrent au moins trois avantages : (1) Les DNN plus petits nécessitent moins de communication entre les serveurs lors de l'entraînement distribué. (2) Les DNN plus petits nécessitent moins de bande passante pour exporter un nouveau modèle du cloud à une voiture autonome. (3) Les DNN plus petits sont plus faciles à déployer sur des FPGA et d'autres matériels à mémoire limitée.Pour fournir tous ces avantages, nous proposons une architecture de DNN appelée SqueezeNet. SqueezeNet atteint une précision comparable à celle d'AlexNet sur ImageNet avec 50 fois moins de paramètres. De plus, en utilisant des techniques de compression de modèles, nous sommes capables de compresser SqueezeNet à moins de 0,5 Mo (510 fois plus petit que AlexNet).L'architecture SqueezeNet est disponible pour téléchargement ici : https://github.com/DeepScale/SqueezeNet


Créer de l'IA avec l'IA

De l'idée au lancement — accélérez votre développement IA avec le co-codage IA gratuit, un environnement prêt à l'emploi et le meilleur prix pour les GPU.

Codage assisté par IA
GPU prêts à l’emploi
Tarifs les plus avantageux

HyperAI Newsletters

Abonnez-vous à nos dernières mises à jour
Nous vous enverrons les dernières mises à jour de la semaine dans votre boîte de réception à neuf heures chaque lundi matin
Propulsé par MailChimp