HyperAIHyperAI
il y a 17 jours

Diffusion de graphe conditionnée multi-variée pour la recherche d'architecture neuronale

Rohan Asthana, Joschua Conrad, Youssef Dawoud, Maurits Ortmanns, Vasileios Belagiannis
Diffusion de graphe conditionnée multi-variée pour la recherche d'architecture neuronale
Résumé

La recherche d'architecture neuronique (NAS) automatisée vise à concevoir des architectures de réseaux de neurones en explorant un espace de recherche d'architectures souvent très vaste et complexe. Pour améliorer cette recherche, nous proposons une approche de NAS fondée sur la diffusion de graphes, qui utilise des processus de diffusion de graphes conditionnels discrets pour générer des architectures de réseaux de neurones à haute performance. Nous introduisons également une méthode de guidage sans classificateur conditionné multi-contraintes appliquée aux réseaux de diffusion de graphes, permettant d'imposer simultanément des contraintes telles qu'une haute précision et une faible latence matérielle. Contrairement aux travaux antérieurs, notre méthode est entièrement différentiable et nécessite uniquement une seule phase d'entraînement du modèle. Dans nos évaluations, nous obtenons des résultats prometteurs sur six benchmarks standards, générant des architectures novatrices et uniques à une vitesse rapide — inférieure à 0,2 seconde par architecture. En outre, nous démontrons la généralisation et l'efficacité de notre méthode à travers des expériences menées sur le jeu de données ImageNet.

Diffusion de graphe conditionnée multi-variée pour la recherche d'architecture neuronale | Articles de recherche récents | HyperAI