Command Palette
Search for a command to run...
GRAND+: Skalierbare Graphen-Zufalls-Neuronale Netze
GRAND+: Skalierbare Graphen-Zufalls-Neuronale Netze
Wenzheng Feng Yuxiao Dong Tinglin Huang Ziqi Yin Xu Cheng Evgeny Kharlamov Jie Tang
Zusammenfassung
Graph Neural Networks (GNNs) werden weit verbreitet für das halbüberwachte Lernen auf Graphen eingesetzt. Eine neuere Studie zeigt, dass das Graph Random Neural Network (GRAND)-Modell für dieses Problem Leistungen auf State-of-the-Art-Niveau erzielen kann. Allerdings ist es für GRAND schwierig, große Graphen zu verarbeiten, da dessen Wirksamkeit auf rechenintensiven Datenverstärkungsverfahren beruht. In dieser Arbeit präsentieren wir einen skalierbaren und leistungsstarken GNN-Framework namens GRAND+ für das halbüberwachte Graphenlernen. Um das oben genannte Problem zu lösen, entwickeln wir im Rahmen von GRAND+ einen verallgemeinerten Forward-Push-(GFPush)-Algorithmus, der eine allgemeine Propagationsmatrix vorberechnet und zur Durchführung der Graphendatenverstärkung in Mini-Batches nutzt. Wir zeigen, dass die geringen zeitlichen und räumlichen Komplexitäten des GFPush es GRAND+ ermöglichen, effizient auf große Graphen zu skalieren. Zudem führen wir eine vertrauensbasierte Konsistenzverlustfunktion in die Modelloptimierung von GRAND+ ein, die dessen Übergeneralisierungsfähigkeit fördert. Wir führen umfangreiche Experimente auf sieben öffentlichen Datensätzen unterschiedlicher Größe durch. Die Ergebnisse belegen, dass GRAND+ 1) in der Lage ist, große Graphen zu skalieren und weniger Rechenzeit benötigt als bestehende skalierbare GNNs, und 2) über alle Datensätze hinweg konsistente Genauigkeitsverbesserungen gegenüber sowohl vollständigen (full-batch) als auch skalierbaren GNNs erzielt.