Half-Hop : une approche d'upsampling de graphe pour ralentir le passage de messages

Les réseaux neuronaux à passage de messages ont démontré un grand succès sur les données structurées en graphes. Toutefois, dans de nombreux cas, le passage de messages peut entraîner un sur-lissage ou échouer lorsque les nœuds voisins appartiennent à des classes différentes. Dans ce travail, nous introduisons un cadre simple mais général pour améliorer l’apprentissage dans les réseaux neuronaux à passage de messages. Notre approche consiste essentiellement à suréchantillonner les arêtes du graphe original en ajoutant des « nœuds lents » sur chaque arête, capables de médier la communication entre un nœud source et un nœud cible. Notre méthode ne modifie que le graphe d’entrée, ce qui la rend facile à intégrer dans les modèles existants, sans nécessiter de modifications profondes. Pour mieux comprendre les avantages de ralentir le passage de messages, nous fournissons une analyse théorique et empirique. Nous présentons des résultats sur plusieurs benchmarks supervisés et auto-supervisés, montrant des améliorations systématiques, en particulier dans des conditions hétérophiles où les nœuds adjacents ont plus de chances d’avoir des étiquettes différentes. Enfin, nous démontrons comment notre approche peut être utilisée pour générer des augmentations dans le cadre de l’apprentissage auto-supervisé, en introduisant aléatoirement des nœuds lents sur différentes arêtes du graphe afin de produire des vues multi-échelles avec des longueurs de chemin variables.