HyperAIHyperAI

Command Palette

Search for a command to run...

Diffusion de graphe conditionnée multi-variée pour la recherche d'architecture neuronale

Rohan Asthana Joschua Conrad Youssef Dawoud Maurits Ortmanns Vasileios Belagiannis

Résumé

La recherche d'architecture neuronique (NAS) automatisée vise à concevoir des architectures de réseaux de neurones en explorant un espace de recherche d'architectures souvent très vaste et complexe. Pour améliorer cette recherche, nous proposons une approche de NAS fondée sur la diffusion de graphes, qui utilise des processus de diffusion de graphes conditionnels discrets pour générer des architectures de réseaux de neurones à haute performance. Nous introduisons également une méthode de guidage sans classificateur conditionné multi-contraintes appliquée aux réseaux de diffusion de graphes, permettant d'imposer simultanément des contraintes telles qu'une haute précision et une faible latence matérielle. Contrairement aux travaux antérieurs, notre méthode est entièrement différentiable et nécessite uniquement une seule phase d'entraînement du modèle. Dans nos évaluations, nous obtenons des résultats prometteurs sur six benchmarks standards, générant des architectures novatrices et uniques à une vitesse rapide — inférieure à 0,2 seconde par architecture. En outre, nous démontrons la généralisation et l'efficacité de notre méthode à travers des expériences menées sur le jeu de données ImageNet.


Créer de l'IA avec l'IA

De l'idée au lancement — accélérez votre développement IA avec le co-codage IA gratuit, un environnement prêt à l'emploi et le meilleur prix pour les GPU.

Codage assisté par IA
GPU prêts à l’emploi
Tarifs les plus avantageux

HyperAI Newsletters

Abonnez-vous à nos dernières mises à jour
Nous vous enverrons les dernières mises à jour de la semaine dans votre boîte de réception à neuf heures chaque lundi matin
Propulsé par MailChimp
Diffusion de graphe conditionnée multi-variée pour la recherche d'architecture neuronale | Articles | HyperAI