Command Palette
Search for a command to run...
GhostNetV3 : Exploration des stratégies d'entraînement pour des modèles compacts
GhostNetV3 : Exploration des stratégies d'entraînement pour des modèles compacts
Zhenhua Liu Zhiwei Hao Kai Han Yehui Tang Yunhe Wang
Résumé
Les réseaux neuronaux compacts sont spécialement conçus pour des applications sur des dispositifs edge, offrant une vitesse d’inférence plus rapide tout en préservant des performances modérées. Toutefois, les stratégies d’entraînement actuelles pour ces modèles compacts s’inspirent largement de celles utilisées pour les modèles conventionnels, négligeant ainsi leurs différences en capacité modélisatrice, ce qui peut limiter leur performance. Dans cet article, en menant une étude systématique sur l’impact de divers éléments d’entraînement, nous proposons une stratégie d’entraînement efficace pour les modèles compacts. Nous constatons que des conceptions appropriées de la ré-paramétrisation et de la distillation de connaissances sont cruciales pour entraîner des modèles compacts à haute performance, tandis que certaines augmentations de données couramment utilisées pour les modèles conventionnels, comme Mixup et CutMix, entraînent au contraire une dégradation des performances. Nos expériences sur le jeu de données ImageNet-1K démontrent que notre stratégie d’entraînement spécialisée est applicable à diverses architectures, notamment GhostNetV2, MobileNetV2 et ShuffleNetV2. Plus précisément, en combinant notre stratégie, GhostNetV3 1,3× atteint une précision top-1 de 79,1 % avec seulement 269 M FLOPs et une latence de 14,46 ms sur les dispositifs mobiles, surpassant largement sa version entraînée de manière classique. En outre, nos observations s’étendent également aux scénarios de détection d’objets. Le code PyTorch et les points de contrôle sont disponibles à l’adresse suivante : https://github.com/huawei-noah/Efficient-AI-Backbones/tree/master/ghostnetv3_pytorch.