HyperAIHyperAI
il y a 17 jours

DSNAS : Recherche directe d'architecture neuronale sans réentraînement des paramètres

Shoukang Hu, Sirui Xie, Hehui Zheng, Chunxiao Liu, Jianping Shi, Xunying Liu, Dahua Lin
DSNAS : Recherche directe d'architecture neuronale sans réentraînement des paramètres
Résumé

Si les méthodes de NAS (Neural Architecture Search) sont des solutions, quelle est la problématique ? La plupart des méthodes de NAS existantes reposent sur une optimisation en deux étapes des paramètres. Or, la performance d'une même architecture dans ces deux étapes est faiblement corrélée. À partir de cette observation, nous proposons une nouvelle formulation du problème de la NAS, baptisée tâche-spécifique et end-to-end. Nous soutenons qu’étant donné une tâche de vision par ordinateur pour laquelle une méthode de NAS est attendue, cette définition permet de réduire l’évaluation de la NAS, souvent floue, à deux critères précis : i) la précision atteinte sur cette tâche, et ii) le coût computationnel total nécessaire pour obtenir un modèle atteignant une précision satisfaisante. Étant donné que la plupart des méthodes existantes ne résolvent pas directement ce problème, nous introduisons DSNAS, un cadre efficace de NAS différentiable qui optimise simultanément l’architecture et les paramètres à l’aide d’une estimation de Monte Carlo à faible biais. Les réseaux enfants dérivés de DSNAS peuvent être déployés directement sans re-entraînement des paramètres. En comparaison avec les méthodes en deux étapes, DSNAS parvient à découvrir des réseaux atteignant une précision comparable (74,4 %) sur ImageNet en seulement 420 heures de GPU, réduisant ainsi le temps total de plus de 34 %. Notre implémentation est disponible à l’adresse suivante : https://github.com/SNAS-Series/SNAS-Series.

DSNAS : Recherche directe d'architecture neuronale sans réentraînement des paramètres | Articles de recherche récents | HyperAI