AdaGCN: Adaboosting von Graph Convolutional Networks zu tiefen Modellen

Die Gestaltung tiefer Graphmodelle bleibt weiterhin ein zu untersuchendes Gebiet, wobei der entscheidende Aspekt darin besteht, wie man effizient das Wissen aus verschiedenen Nachbarschaftshüpfen erkunden und nutzen kann. In dieser Arbeit schlagen wir eine neuartige RNN-ähnliche Architektur für tiefere Graphneuronale Netze vor, indem wir AdaBoost in die Netzwerkberechnung integrieren. Das vorgeschlagene Graphkonvolutionsnetzwerk, AdaGCN (Adaboosting Graph Convolutional Network), verfügt über die Fähigkeit, effizient Wissen aus höheren Nachbarschaftshüpfen der aktuellen Knoten zu extrahieren und dieses dann auf adaboostrische Weise in das Netzwerk zu integrieren. Im Gegensatz zu anderen Graphneuronalen Netzen, die viele Graphkonvolutionschichten direkt stapeln, teilt AdaGCN unter allen „Schichten“ die gleiche grundlegende Neuronale-Netz-Architektur und wird rekursiv optimiert, was einer RNN ähnelt. Darüber hinaus haben wir theoretisch den Zusammenhang zwischen AdaGCN und bestehenden Methoden der Graphkonvolution hergestellt und die Vorteile unseres Ansatzes dargelegt. Schließlich zeigen umfangreiche Experimente die konsistent erstklassige Vorhersageleistung von AdaGCN auf Graphen bei unterschiedlichen Labelraten sowie den rechnerischen Vorteil unseres Ansatzes. Der Quellcode ist unter \url{https://github.com/datake/AdaGCN} verfügbar.