RAN-GNNs: Überwindung der Kapazitätsgrenzen von Graph Neural Networks

Graph Neural Networks sind zu einem Standardwerkzeug bei der Lösung von Aufgaben geworden, die auf der Lern- und Analyse von Daten über Graphen basieren. Dennoch deuten mehrere Ergebnisse auf eine inhärente Schwierigkeit hin, die Leistung durch Erhöhung der Anzahl an Schichten zu verbessern. Neuere Arbeiten weisen darauf hin, dass dieses Phänomen auf eine Besonderheit bei der Extraktion von Knotenmerkmalen in graphbasierten Aufgaben zurückzuführen ist: die Notwendigkeit, gleichzeitig mehrere Nachbarschaftsgrößen zu berücksichtigen und diese adaptiv anzupassen. In diesem Paper untersuchen wir kürzlich vorgeschlagene zufällig verbundene Architekturen im Kontext von Graph Neural Networks. Anstatt tiefere Netzwerke durch Stapelung vieler Schichten zu bauen, zeigen wir, dass die Verwendung einer zufällig verbundenen Architektur eine effektivere Methode sein kann, die Kapazität des Netzwerks zu erhöhen und reichhaltigere Darstellungen zu erzeugen. Wir zeigen, dass solche Architekturen wie ein Ensemble aus Pfaden wirken, die Beiträge aus Rezeptivfeldern unterschiedlicher Größe vereinen können. Darüber hinaus können diese Rezeptivfelder durch trainierbare Gewichte entlang der Pfade ebenfalls vergrößert oder verkleinert werden. Zudem liefern wir umfassende experimentelle Belege für die überlegene Leistung zufällig verbundener Architekturen über mehrere Aufgaben und vier Definitionen von Graph-Faltung, wobei wir moderne Benchmarking-Frameworks nutzen, die die Zuverlässigkeit früherer Testmethodologien adressieren.