HyperAIHyperAI
vor 15 Tagen

Vortrainieren und Lernen: Globale Informationen für Graph Neural Networks erhalten

Danhao Zhu, Xin-yu Dai, Jiajun Chen
Vortrainieren und Lernen: Globale Informationen für Graph Neural Networks erhalten
Abstract

Graph Neural Networks (GNNs) haben erhebliches Potenzial beim Lernen auf attributierten Graphen gezeigt. Dennoch bleibt es eine Herausforderung für GNNs, Informationen zu nutzen, die sich weit vom Quellknoten entfernt befinden. Zudem erfordern herkömmliche GNNs graphenbasierte Attribute als Eingabe und können daher nicht direkt auf reinen (plain) Graphen angewendet werden. In diesem Paper stellen wir neue Modelle namens G-GNNs (Global information for GNNs) vor, um diese Einschränkungen zu überwinden. Zunächst werden über unsupervisiertes Vortraining globale Struktur- und Attributmerkmale für jeden Knoten ermittelt, wodurch globale Informationen im Zusammenhang mit dem Knoten bewahrt werden. Anschließend schlagen wir einen parallelen Framework für GNNs vor, der diese globalen Merkmale gemeinsam mit den rohen Netzwerkattributen nutzt, um verschiedene Aspekte aus diesen Merkmalen zu lernen. Die vorgeschlagenen Lernmethoden sind sowohl auf reinen Graphen als auch auf attributierten Graphen anwendbar. Umfassende Experimente zeigen, dass G-GNNs auf drei standardisierten Evaluationsgraphen andere state-of-the-art-Modelle übertrifft. Insbesondere etablieren unsere Methoden neue Benchmark-Rekorde auf Cora (84,31 %) und Pubmed (80,95 %) beim Lernen auf attributierten Graphen.

Vortrainieren und Lernen: Globale Informationen für Graph Neural Networks erhalten | Neueste Forschungsarbeiten | HyperAI