Command Palette
Search for a command to run...
MnasNet : Recherche de architectures neuronales adaptées aux plateformes mobiles
MnasNet : Recherche de architectures neuronales adaptées aux plateformes mobiles
Mingxing Tan Bo Chen Ruoming Pang Vijay Vasudevan Mark Sandler Andrew Howard Quoc V. Le
Abstract
La conception de réseaux de neurones convolutifs (CNN) pour les appareils mobiles est un défi car ces modèles doivent être à la fois petits et rapides tout en restant précis. Bien que des efforts considérables aient été consacrés à la conception et à l'amélioration des CNN mobiles sur tous les plans, il est très difficile d'équilibrer manuellement ces compromis lorsque tant de possibilités architecturales doivent être prises en compte. Dans cet article, nous proposons une approche de recherche automatique d'architecture neuronale mobile (MNAS), qui intègre explicitement la latence du modèle dans l'objectif principal afin que la recherche puisse identifier un modèle offrant un bon équilibre entre précision et latence. Contrairement aux travaux précédents, où la latence était prise en compte par le biais d'un autre indicateur souvent inexact (par exemple, FLOPS), notre approche mesure directement la latence d'inférence dans le monde réel en exécutant le modèle sur des téléphones mobiles. Pour mieux trouver le juste équilibre entre flexibilité et taille de l'espace de recherche, nous proposons un nouvel espace de recherche hiérarchique factorisé qui encourage la diversité des couches au sein du réseau. Les résultats expérimentaux montrent que notre approche dépasse constamment les modèles CNN mobiles de pointe actuels sur plusieurs tâches visuelles. Sur la tâche de classification ImageNet, notre MnasNet atteint une précision top-1 de 75,2% avec une latence de 78 ms sur un téléphone Pixel, ce qui est 1,8 fois plus rapide que MobileNetV2 [29] avec une précision supérieure de 0,5% et 2,3 fois plus rapide que NASNet [36] avec une précision supérieure de 1,2%. Notre MnasNet obtient également une meilleure qualité mAP que MobileNets pour la détection d'objets COCO. Le code source est disponible à l'adresse : https://github.com/tensorflow/tpu/tree/master/models/official/mnasnet