Adaptives Sampling zur schnellen Lernung von Graphrepräsentationen

Graph Convolutional Networks (GCNs) sind zu einem entscheidenden Werkzeug für das Lernen von Darstellungen von Graphenknoten geworden. Die Haupt Herausforderung bei der Anwendung von GCNs auf großen Graphen ist das Skalierungsproblem, das sowohl in der Berechnung als auch im Speicher erhebliche Kosten verursacht, aufgrund der unkontrollierbaren Nachbarschaftserweiterung über die Schichten hinweg. In dieser Arbeit beschleunigen wir die Trainierung von GCNs durch die Entwicklung einer adaptiven, schichtweise Sampling-Methode. Durch den Aufbau des Netzwerks schichtweise in einem top-down Prozess, sampeln wir die untere Schicht bedingt auf die obere, wobei die gesampelten Nachbarschaften von verschiedenen Elternknoten geteilt werden und eine Übererweiterung dank der festschließenden Größen-Sampling vermieden wird. Wichtiger noch, ist der vorgeschlagene Sampler anpassungsfähig und eignet sich für explizite Varianzreduktion, was wiederum die Trainierung unserer Methode verbessert. Des Weiteren schlagen wir einen neuen und wirtschaftlichen Ansatz vor, um die Nachrichtenübermittlung zwischen entfernten Knoten durch Anwendung von Skip-Verbindungen zu fördern. Intensive Experimente auf mehreren Benchmarks bestätigen die Effektivität unserer Methode hinsichtlich der Klassifikationsgenauigkeit und zeigen gleichzeitig eine schnellere Konvergenzgeschwindigkeit.请注意,这里将“层”翻译为“Schichten”,“节点”翻译为“Knoten”,“采样”翻译为“Sampling”,这些都是在德语文献中常见的术语。此外,“Skip-Verbindungen”(跳过连接)也是直接从英语转换过来的术语,因为这是在神经网络中广泛使用的概念。