HyperAIHyperAI
vor 2 Monaten

Skaleninvarianz von Graphen-Neuralnetzen

Qin Jiang; Chengjia Wang; Michael Lones; Wei Pang
Skaleninvarianz von Graphen-Neuralnetzen
Abstract

Wir adressieren zwei grundlegende Herausforderungen in Graph Neural Networks (GNNs): (1) den Mangel an theoretischer Unterstützung für Invarianzlern, eine kritische Eigenschaft in der Bildverarbeitung, und (2) das Fehlen eines einheitlichen Modells, das sowohl auf homophilen als auch auf heterophilen Graphendatensätzen hervorragende Leistungen erzielen kann. Um diese Probleme anzugehen, etablieren und beweisen wir Skaleninvarianz in Graphen, erweitern diese wichtige Eigenschaft auf das Lernen von Graphen und validieren sie durch Experimente mit realen Datensätzen. Unter Verwendung gerichteter mehrskaliger Graphen und einer adaptiven Selbstschleifenstrategie schlagen wir ScaleNet vor, eine einheitliche Netzwerkarchitektur, die den aktuellen Stand der Technik in vier homophilen und zwei heterophilen Benchmark-Datensätzen erreicht. Darüber hinaus zeigen wir, dass durch Graphtransformation basierend auf Skaleninvarianz gleichmäßige Gewichte die rechenintensiven Kantengewichte in Digraph-Inception-Netzwerken ersetzen können, wobei die Leistung beibehalten oder verbessert wird. Für einen weiteren populären GNN-Ansatz zu Digraphen demonstrieren wir die Äquivalenz zwischen Methoden des hermiteschen Laplace-Operators und GraphSAGE mit Inzidenznormierung. ScaleNet schließt die Lücke zwischen homophiler und heterophiler Graphenlernen, bietet sowohl theoretische Einblicke in Skaleninvarianz als auch praktische Fortschritte im Bereich des einheitlichen Graphenlernens. Unsere Implementierung ist öffentlich verfügbar unter https://github.com/Qin87/ScaleNet/tree/Aug23.

Skaleninvarianz von Graphen-Neuralnetzen | Neueste Forschungsarbeiten | HyperAI