MSR-DARTS :rang stable minimal de la recherche d'architecture différentiable

Dans la recherche d’architecture neuronique (NAS), la méthode DARTS (Differentiable Architecture Search) a récemment suscité un vif intérêt en raison de son efficacité élevée. Elle définit un réseau sur-paramétré comprenant des arêtes mixtes, chacune représentant l’ensemble des opérateurs candidats, et optimise de manière itérative les poids du réseau et son architecture. Toutefois, cette approche tend à converger rapidement vers un modèle dont les poids se stabilisent plus vite que ceux des autres, ce qui conduit fréquemment à un surapprentissage. En conséquence, le modèle obtenu ne se généralise pas toujours de manière optimale. Pour surmonter ce problème, nous proposons une méthode appelée MSR-DARTS (Minimum Stable Rank DARTS), qui cherche un modèle offrant la meilleure erreur de généralisation en remplaçant l’optimisation de l’architecture par un processus de sélection fondé sur le critère du rang stable minimal. Plus précisément, chaque opérateur de convolution est représenté par une matrice, et MSR-DARTS sélectionne celui présentant le plus petit rang stable. Nous avons évalué MSR-DARTS sur les jeux de données CIFAR-10 et ImageNet. Sur CIFAR-10, il atteint un taux d’erreur de 2,54 % avec seulement 4,0 millions de paramètres en 0,3 jour de calcul GPU, tandis qu’il obtient un taux d’erreur top-1 de 23,9 % sur ImageNet. Le code officiel est disponible à l’adresse suivante : https://github.com/mtaecchhi/msrdarts.git.