Einfache und tiefe Graphenkonvolutionalnetze

Graph Convolutional Networks (GCNs) sind ein leistungsstarker tiefes Lernverfahren für graphstrukturierte Daten. In jüngster Zeit haben GCNs und ihre nachfolgenden Varianten in verschiedenen Anwendungsbereichen auf realen Datensätzen überlegene Leistungen gezeigt. Trotz ihrer Erfolge sind die meisten aktuellen GCN-Modelle flach, aufgrund des {\em Überglättungsproblems} (over-smoothing). In dieser Arbeit untersuchen wir das Problem der Konstruktion und Analyse tiefer Graph Convolutional Networks. Wir schlagen GCNII vor, eine Erweiterung des ursprünglichen GCN-Modells mit zwei einfachen, aber effektiven Techniken: {\em Anfangsresiduum} (Initial residual) und {\em Identitätsabbildung} (Identity mapping). Wir liefern theoretische und empirische Beweise dafür, dass diese beiden Techniken das Überglättungsproblem effektiv lindern. Unsere Experimente zeigen, dass das tiefe GCNII-Modell in verschiedenen halb- und vollüberwachten Aufgaben den Stand der Technik übertreffen kann. Der Quellcode ist unter https://github.com/chennnM/GCNII verfügbar.