SGAS : Recherche d'architecture gloutonne séquentielle

La conception d'architecture est devenue un élément crucial du succès des réseaux de neurones profonds. Les progrès récents dans la recherche automatique d'architecture neuronale (NAS, Neural Architecture Search) sont prometteurs. Toutefois, les architectures découvertes peinent souvent à généraliser lors de l'évaluation finale : celles qui obtiennent une précision de validation plus élevée pendant la phase de recherche peuvent se révéler moins performantes lors de l'évaluation. Pour atténuer ce problème courant, nous introduisons une méthode efficace appelée Sequential Greedy Architecture Search (SGAS), une approche de recherche d'architecture neuronale. En décomposant le processus de recherche en sous-problèmes, SGAS sélectionne et élimine de manière gloutonne les opérations candidates. Nous avons appliqué SGAS à la recherche d'architectures pour les réseaux de neurones convolutionnels (CNN) et les réseaux de convolution de graphes (GCN). Des expériences étendues montrent que SGAS permet de découvrir des architectures de pointe pour des tâches telles que la classification d'images, la classification de nuages de points et la classification de nœuds dans des graphes d'interactions protéine-protéine, tout en nécessitant un coût computationnel minimal. Pour en savoir plus sur SGAS, veuillez visiter : https://www.deepgcns.org/auto/sgas.