HyperAIHyperAI
il y a 2 mois

Réseau neuronal graphique décomposé en arbre

Yu Wang; Tyler Derr
Réseau neuronal graphique décomposé en arbre
Résumé

Les Réseaux Neuraux sur Graphes (GNNs) ont connu un succès notable en apprenant de meilleures représentations grâce à la propagation et à la transformation itératives des caractéristiques, permettant d'exploiter les informations du voisinage. Cependant, la propagation itérative restreint le transport et la fusion des informations des voisinages de couches supérieures avec ceux des couches inférieures, ce qui entraîne inévitablement un lissage des caractéristiques entre les voisinages de différentes couches et peut ainsi compromettre les performances, notamment sur les réseaux hétérophiles. De plus, la plupart des GNNs profonds reconnaissent l'importance des voisinages de couches supérieures mais n'ont pas encore pleinement exploré l'importance de la dépendance multi-saut dans le contexte des différents voisinages pour améliorer les représentations.Dans cette étude, nous analysons d'abord théoriquement le lissage des caractéristiques entre les voisinages de différentes couches et démontrons empiriquement la variabilité du niveau d'homophilie à travers les voisinages situés à différentes couches. Inspirés par ces analyses, nous proposons ensuite une méthode de décomposition arborescente pour dissocier les voisinages de différentes couches afin d'atténuer le lissage des caractéristiques entre ces couches. De plus, nous caractérisons la dépendance multi-saut par diffusion graphique au sein de notre formulation de décomposition arborescente pour construire le Réseau Neural sur Graphes Décomposé en Arbre (TDGNN), capable d'intégrer flexiblement les informations provenant de grands champs récepteurs et d'agréger ces informations en utilisant la dépendance multi-saut.Des expériences exhaustives montrent que TDGNN offre une performance supérieure sur les réseaux homophiles et hétérophiles dans divers scénarios de classification nodale. Une analyse approfondie des paramètres souligne la capacité de TDGNN à prévenir le lissage excessif et à intégrer les caractéristiques des couches superficielles avec des dépendances multi-saut plus profondes, offrant ainsi de nouvelles perspectives pour les réseaux neuronaux sur graphes plus profonds. Code source de TDGNN : http://github.com/YuWVandy/TDGNN

Réseau neuronal graphique décomposé en arbre | Articles de recherche récents | HyperAI