Command Palette
Search for a command to run...
DeeperGCN : Tout ce dont vous avez besoin pour entraîner des GCNs plus profonds
DeeperGCN : Tout ce dont vous avez besoin pour entraîner des GCNs plus profonds
Guohao Li Chenxin Xiong Ali Thabet Bernard Ghanem
Résumé
Les Réseaux de Neurones à Convolution sur Graphes (GCNs) ont suscité une attention considérable grâce à leur puissance d'apprentissage de représentation sur les graphes. Contrairement aux Réseaux de Neurones Convolutifs (CNNs), qui peuvent tirer parti de l'empilement de couches très profondes, les GCNs souffrent des problèmes de gradients disparaissants, de lissage excessif et d'overfitting lorsqu'ils deviennent plus profonds. Ces défis limitent la capacité de représentation des GCNs sur des graphes à grande échelle. Cet article propose DeeperGCN, une méthode capable d'entraîner avec succès et fiabilité des GCNs très profonds. Nous définissons des fonctions d'agrégation généralisées différentiables pour unifier différentes opérations d'agrégation de messages (par exemple, moyenne, maximum). Nous proposons également une nouvelle couche de normalisation appelée MsgNorm et une version pré-activation des connexions résiduelles pour les GCNs. Des expériences approfondies sur le Benchmark Ouvrir Graph (OGB) montrent que DeeperGCN améliore significativement les performances par rapport à l'état de l'art dans les tâches d'apprentissage à grande échelle telles que la prédiction des propriétés nodales et la prédiction des propriétés graphiques. Pour plus d'informations, veuillez consulter https://www.deepgcns.org.Note : - "Open Graph Benchmark" a été traduit par "Benchmark Ouvrir Graph" car c'est le terme couramment utilisé en français dans ce contexte.- Les termes techniques comme "node property prediction" et "graph property prediction" ont été traduits respectivement par "prédiction des propriétés nodales" et "prédiction des propriétés graphiques", qui sont les expressions standard en français dans ce domaine.