HyperAIHyperAI
vor 15 Tagen

GRAND+: Skalierbare Graphen-Zufalls-Neuronale Netze

Wenzheng Feng, Yuxiao Dong, Tinglin Huang, Ziqi Yin, Xu Cheng, Evgeny Kharlamov, Jie Tang
GRAND+: Skalierbare Graphen-Zufalls-Neuronale Netze
Abstract

Graph Neural Networks (GNNs) werden weit verbreitet für das halbüberwachte Lernen auf Graphen eingesetzt. Eine neuere Studie zeigt, dass das Graph Random Neural Network (GRAND)-Modell für dieses Problem Leistungen auf State-of-the-Art-Niveau erzielen kann. Allerdings ist es für GRAND schwierig, große Graphen zu verarbeiten, da dessen Wirksamkeit auf rechenintensiven Datenverstärkungsverfahren beruht. In dieser Arbeit präsentieren wir einen skalierbaren und leistungsstarken GNN-Framework namens GRAND+ für das halbüberwachte Graphenlernen. Um das oben genannte Problem zu lösen, entwickeln wir im Rahmen von GRAND+ einen verallgemeinerten Forward-Push-(GFPush)-Algorithmus, der eine allgemeine Propagationsmatrix vorberechnet und zur Durchführung der Graphendatenverstärkung in Mini-Batches nutzt. Wir zeigen, dass die geringen zeitlichen und räumlichen Komplexitäten des GFPush es GRAND+ ermöglichen, effizient auf große Graphen zu skalieren. Zudem führen wir eine vertrauensbasierte Konsistenzverlustfunktion in die Modelloptimierung von GRAND+ ein, die dessen Übergeneralisierungsfähigkeit fördert. Wir führen umfangreiche Experimente auf sieben öffentlichen Datensätzen unterschiedlicher Größe durch. Die Ergebnisse belegen, dass GRAND+ 1) in der Lage ist, große Graphen zu skalieren und weniger Rechenzeit benötigt als bestehende skalierbare GNNs, und 2) über alle Datensätze hinweg konsistente Genauigkeitsverbesserungen gegenüber sowohl vollständigen (full-batch) als auch skalierbaren GNNs erzielt.

GRAND+: Skalierbare Graphen-Zufalls-Neuronale Netze | Neueste Forschungsarbeiten | HyperAI