SqueezeNAS : Recherche rapide d'architecture neuronale pour une segmentation sémantique plus rapide

Pour les applications en temps réel utilisant des Réseaux Neuronaux Profonds (DNNs), il est crucial que les modèles atteignent une haute précision sur la tâche cible et une faible latence d'inférence sur la plateforme de calcul cible. Bien que la Recherche d'Architecture de Réseau Neuronal (NAS) ait été efficacement utilisée pour développer des réseaux à faible latence pour la classification d'images, peu d'efforts ont été consacrés à l'utilisation de la NAS pour optimiser les architectures de DNNs pour d'autres tâches de vision. Dans ce travail, nous présentons ce que nous considérons être la première recherche sans proxy sensible au matériel visant la segmentation sémantique dense. Avec cette approche, nous améliorons l'état de l'art en termes de précision pour les réseaux optimisés en latence sur le jeu de données Cityscapes de segmentation sémantique. Notre petit réseau SqueezeNAS optimisé en latence atteint un mIOU par classe de validation de 68,02 % avec des temps d'inférence inférieurs à 35 ms sur le NVIDIA AGX Xavier. Notre grand réseau SqueezeNAS optimisé en latence atteint un mIOU par classe de 73,62 % avec des temps d'inférence inférieurs à 100 ms. Nous démontrons qu'il est possible d'obtenir des gains de performance significatifs en utilisant la NAS pour trouver des réseaux optimisés tant pour la tâche spécifique que pour le matériel d'inférence. Nous présentons également une analyse détaillée comparant nos réseaux aux architectures les plus récentes et performantes.