Réseaux de neurones convolutionnels hyperboliques

Les réseaux de neurones convolutionnels sur graphes (GCN) plongent les nœuds d’un graphe dans un espace euclidien, ce qui entraîne une distortion importante lorsqu’on traite des graphes réels présentant une structure à échelle libre ou hiérarchique. La géométrie hyperbolique offre une alternative prometteuse, car elle permet des plongements avec une distortion nettement réduite. Toutefois, l’extension des GCN à la géométrie hyperbolique soulève plusieurs défis uniques, notamment en raison de l’absence de définition claire des opérations de réseaux de neurones — telles que la transformation de caractéristiques ou l’agrégation — dans l’espace hyperbolique. Par ailleurs, puisque les caractéristiques d’entrée sont souvent euclidiennes, il n’est pas évident de transformer ces caractéristiques en plongements hyperboliques possédant une courbure adaptée. Dans ce travail, nous proposons Hyperbolic Graph Convolutional Neural Network (HGCN), le premier GCN inductif hyperbolique qui exploite à la fois l’expressivité des GCN et la géométrie hyperbolique pour apprendre des représentations inductives de nœuds sur des graphes hiérarchiques et à échelle libre. Nous dérivons les opérations GCN dans le modèle de l’hyperboloïde de l’espace hyperbolique, et nous projetons les caractéristiques d’entrée euclidiennes vers des plongements dans des espaces hyperboliques dont la courbure est ajustable au cours de chaque couche. Les expériences montrent que HGCN apprend des plongements préservant efficacement la structure hiérarchique, et permet d’atteindre de meilleures performances par rapport aux variantes euclidiennes, même avec des dimensions très faibles : par rapport aux GCN de pointe, HGCN réduit l’erreur jusqu’à 63,1 % en ROC AUC pour la prédiction de liens et jusqu’à 47,5 % en score F1 pour la classification de nœuds, tout en améliorant également les résultats actuels sur le jeu de données PubMed.