Die Grenzen von Graph Neural Networks durch die Verbesserung der Assortativität von Graphen mit lokalen Mischmustern aufheben

Graph Neural Networks (GNNs) haben bei mehreren graphbasierten Lernaufgaben durch die Fusion von Netzwerkstruktur und Knotenmerkmalen einen enormen Erfolg erzielt. Moderne GNN-Modelle basieren auf der iterativen Aggregation von Nachbar- oder Proximitätsmerkmalen durch Nachrichtenaustausch. Ihre Vorhersileistung wurde als stark durch das assortative Mischen im Graphen begrenzt gezeigt, eine wesentliche Eigenschaft, bei der Knoten mit ähnlichen Attributen untereinander vermengt oder verbunden sind. Wir beobachten, dass reale Netzwerke heterogene oder vielfältige Mischmuster aufweisen und die konventionelle globale Messung der Assortativität, wie der globale Assortativitätskoeffizient, möglicherweise keine repräsentative Statistik ist, um dieses Mischen zu quantifizieren. Wir greifen den verallgemeinerten Begriff der knotenbasierten Assortativität auf, um die vielfältigen Muster besser darzustellen und die Lernfähigkeit von GNNs genauer zu quantifizieren. Wir stellen fest, dass die Vorhersileistung einer breiten Palette von GNN-Modellen stark mit der knotenbasierten Assortativität korreliert. Um diese Grenze zu überwinden, konzentrieren wir uns in dieser Arbeit darauf, den Eingangsgraphen in einen Berechnungsgraphen zu transformieren, der sowohl Proximitäts- als auch Strukturinformation als unterschiedliche Kantenarten enthält. Der resultierende multirelationale Graph hat ein erhöhtes Maß an Assortativität und bewahrt wichtige Informationen aus dem ursprünglichen Graphen. Wir schlagen vor, GNNs auf diesem Berechnungsgraphen auszuführen und zeigen, dass das adaptive Wählen zwischen Struktur und Proximität unter vielfältigem Mischen zu einer verbesserten Leistung führt. Empirisch demonstrieren wir die Vorteile unseres Transformationsrahmens für die semiüberwachte Knotenklassifikation auf einer Vielzahl von realweltlichen Graphlernbenchmarks.