HyperAIHyperAI

Command Palette

Search for a command to run...

DropGNN : Des random dropouts augmentent l'expressivité des réseaux de neurones sur graphes

Pál András Papp Karolis Martinkus Lukas Faber Roger Wattenhofer

Résumé

Cet article étudie les réseaux de neurones sur graphes à dropout (DropGNNs), une nouvelle approche visant à surmonter les limites des cadres GNN standards. Dans les DropGNNs, nous exécutons plusieurs itérations d’un GNN sur le graphe d’entrée, en supprimant aléatoirement et indépendamment certains nœuds à chaque itération. Ensuite, nous combinons les résultats de ces itérations pour obtenir le résultat final. Nous démontrons que les DropGNNs peuvent distinguer diverses voisinages de graphe qui ne sont pas séparables par les GNN basés sur le passage de messages. Nous établissons des bornes théoriques sur le nombre d’itérations nécessaires pour garantir une distribution fiable des suppressions de nœuds, et prouvons plusieurs propriétés relatives aux capacités d’expression et aux limites des DropGNNs. Nous validons expérimentalement nos résultats théoriques concernant l’expressivité. En outre, nous montrons que les DropGNNs obtiennent des performances compétitives sur des benchmarks établis de GNN.


Créer de l'IA avec l'IA

De l'idée au lancement — accélérez votre développement IA avec le co-codage IA gratuit, un environnement prêt à l'emploi et le meilleur prix pour les GPU.

Codage assisté par IA
GPU prêts à l’emploi
Tarifs les plus avantageux

HyperAI Newsletters

Abonnez-vous à nos dernières mises à jour
Nous vous enverrons les dernières mises à jour de la semaine dans votre boîte de réception à neuf heures chaque lundi matin
Propulsé par MailChimp