Graph Random Neural Network für semi-supervised Learning auf Graphen

Wir untersuchen das Problem des halbüberwachten Lernens auf Graphen, für das Graph Neural Networks (GNNs) umfassend erforscht wurden. Dennoch leiden die meisten existierenden GNNs inhärent unter den Einschränkungen der Überglättung, mangelnder Robustheit und schwacher Generalisierbarkeit, insbesondere wenn die Anzahl der gelabelten Knoten gering ist. In diesem Artikel stellen wir einen einfachen, jedoch wirksamen Ansatz vor – GRAPH RANDOM NEURAL NETWORKS (GRAND) –, um diese Probleme zu bewältigen. In GRAND entwickeln wir zunächst eine zufällige Propagierungsstrategie zur Durchführung von Graphen-Datenverstärkung. Anschließend nutzen wir Konsistenz-Regularisierung, um die Vorhersagekonsistenz ungelabelter Knoten über verschiedene Datenverstärkungen hinweg zu optimieren. Umfangreiche Experimente auf etablierten Graphen-Benchmark-Datensätzen zeigen, dass GRAND state-of-the-art GNN-Baselines im halbüberwachten Knotenklassifikations-Task erheblich übertrifft. Schließlich demonstrieren wir, dass GRAND die Probleme der Überglättung und mangelnder Robustheit reduziert und eine bessere Generalisierungsfähigkeit im Vergleich zu bestehenden GNNs aufweist. Der Quellcode von GRAND ist öffentlich verfügbar unter https://github.com/Grand20/grand.