Command Palette
Search for a command to run...
{Raymond Ptucha Sunand Raghupathi Naga Durga Harish Kanamarlapudi Rohan Dhamdhere Miguel Dominguez}
Résumé
La conception d’architectures et la sélection des hyperparamètres pour les réseaux de neurones profonds impliquent souvent une part importante d’essais et d’erreurs. L’espace des paramètres étant trop vaste pour être exploré exhaustivement, on se contente souvent de solutions sous-optimales. Certaines recherches ont proposé des méthodes automatisées de recherche d’architecture et d’hyperparamètres, mais celles-ci sont restreintes aux applications images. Nous proposons un cadre évolutionnaire adapté aux données graphes, extensible à des graphes génériques. Notre approche fait évoluer une population de réseaux de neurones afin d’explorer l’espace d’architecture et d’hyperparamètres. À chaque étape du processus de neuroévolution, il est possible d’ajouter ou de supprimer des couches de réseau de neurones, d’ajuster les hyperparamètres, ou d’appliquer des itérations supplémentaires d’entraînement. Les probabilités de sélection des mutations sont pondérées en fonction des succès récents, ce qui permet de guider efficacement et précisément le processus d’apprentissage. Nous atteignons un état de l’art sur la classification des protéines MUTAG à partir d’une petite population de seulement 10 réseaux, tout en offrant des insights intéressants sur la construction incrémentale d’architectures de réseaux efficaces.
Benchmarks
| Benchmark | Méthodologie | Métriques |
|---|---|---|
| graph-classification-on-enzymes | Evolution of Graph Classifiers | Accuracy: 55.67 |
| graph-classification-on-mutag | Evolution of Graph Classifiers | Accuracy: 100.00% Accuracy (10-fold): 100 |
Construire l'IA avec l'IA
De l'idée au lancement — accélérez votre développement IA avec du co-codage IA gratuit, un environnement prêt à l'emploi et les meilleurs prix GPU.