HyperAIHyperAI
vor 15 Tagen

Diffusion verbessert das Graph-Lernen

Johannes Gasteiger, Stefan Weißenberger, Stephan Günnemann
Diffusion verbessert das Graph-Lernen
Abstract

Graphen-Convolution ist das Herzstück der meisten Graph Neural Networks (GNNs) und wird üblicherweise durch Nachrichtenübertragung zwischen direkten (einschrittigen) Nachbarn approximiert. In dieser Arbeit entfernen wir die Einschränkung, nur direkte Nachbarn zu nutzen, indem wir eine leistungsstarke, gleichzeitig räumlich lokalisierte Graphen-Convolution einführen: die Graphen-Diffusions-Convolution (GDC). GDC nutzt verallgemeinerte Graphen-Diffusion, wobei Beispiele hierfür der Wärme-Kern und der personalisierte PageRank sind. Sie lindert das Problem von rauschhaften und oft willkürlich definierten Kanten in realen Graphen. Wir zeigen, dass GDC eng mit spektralbasierten Modellen verwandt ist und somit die Stärken sowohl räumlicher (Nachrichtenübertragung) als auch spektraler Methoden vereint. Wir demonstrieren, dass der Ersatz der Nachrichtenübertragung durch die Graphen-Diffusions-Convolution konsistent zu erheblichen Leistungssteigerungen über eine Vielzahl von Modellen, sowohl auf überwachten als auch unüberwachten Aufgaben, sowie auf verschiedenen Datensätzen führt. Darüber hinaus ist GDC nicht auf GNNs beschränkt, sondern kann nahtlos mit jedem graphbasierten Modell oder Algorithmus (z. B. spektrale Clustering-Verfahren) kombiniert werden, ohne dass Änderungen an letzterem erforderlich sind oder sich dessen Rechenkomplexität verändert. Unsere Implementierung ist online verfügbar.

Diffusion verbessert das Graph-Lernen | Neueste Forschungsarbeiten | HyperAI