Gated Graph Convolutional Recurrent Neural Networks

Graphprozesse modellieren eine Reihe wichtiger Probleme, wie zum Beispiel die Identifizierung des Erdbebenepizentrums oder das Wettervorhersage. In dieser Arbeit schlagen wir eine speziell auf diese Probleme zugeschnittene Architektur von Graph Convolutional Recurrent Neural Networks (GCRNN) vor. GCRNNs verwenden Faltungsfilterbänke, um die Anzahl der trainierbaren Parameter unabhängig von der Größe des Graphen und den betrachteten Zeitsequenzen zu halten. Wir stellen außerdem Gated GCRNNs vor, eine zeitgesteuerte Variante der GCRNNs, die den Long Short-Term Memory (LSTM)-Netzwerken ähnelt. Im Vergleich zu Graph Neural Networks (GNNs) und einer anderen rekurrenten Grapharchitektur zeigten GCRNNs in Experimenten mit sowohl synthetischen als auch realen Daten erheblich bessere Leistungen bei deutlich geringerer Parameteranzahl.