Vereinfachung von Graphenkonvolutionnetzwerken

Graph Convolutional Networks (GCNs) und ihre Varianten haben in den letzten Jahren erhebliche Aufmerksamkeit erfahren und sind zu den standardmäßigen Methoden für das Lernen von Graphrepräsentationen geworden. GCNs beziehen ihre Inspiration hauptsächlich aus aktuellen Ansätzen des Deep Learnings und können daher unnötige Komplexität und redundante Berechnungen vererben. In dieser Arbeit reduzieren wir diese überflüssige Komplexität durch sukzessives Entfernen von Nichtlinearitäten und Zusammenfassen der Gewichtsmatrizen zwischen aufeinanderfolgenden Schichten. Wir führen eine theoretische Analyse des resultierenden linearen Modells durch und zeigen, dass es einem festen Tiefpassfilter gefolgt von einem linearen Klassifizierer entspricht. Bemerkenswerterweise demonstriert unsere experimentelle Auswertung, dass diese Vereinfachungen die Genauigkeit in vielen nachgeschalteten Anwendungen nicht negativ beeinflussen. Darüber hinaus skaliert das resultierende Modell zu größeren Datensätzen, ist natürlicherweise interpretierbar und bietet bis zu zwei Größenordnungen an Geschwindigkeitsverbesserung im Vergleich zu FastGCN.