DropGNN : Des random dropouts augmentent l'expressivité des réseaux de neurones sur graphes

Cet article étudie les réseaux de neurones sur graphes à dropout (DropGNNs), une nouvelle approche visant à surmonter les limites des cadres GNN standards. Dans les DropGNNs, nous exécutons plusieurs itérations d’un GNN sur le graphe d’entrée, en supprimant aléatoirement et indépendamment certains nœuds à chaque itération. Ensuite, nous combinons les résultats de ces itérations pour obtenir le résultat final. Nous démontrons que les DropGNNs peuvent distinguer diverses voisinages de graphe qui ne sont pas séparables par les GNN basés sur le passage de messages. Nous établissons des bornes théoriques sur le nombre d’itérations nécessaires pour garantir une distribution fiable des suppressions de nœuds, et prouvons plusieurs propriétés relatives aux capacités d’expression et aux limites des DropGNNs. Nous validons expérimentalement nos résultats théoriques concernant l’expressivité. En outre, nous montrons que les DropGNNs obtiennent des performances compétitives sur des benchmarks établis de GNN.