HyperAIHyperAI
vor 2 Monaten

FastGCN: Schnelles Lernen mit Graph Convolutional Networks durch Importance Sampling

Jie Chen; Tengfei Ma; Cao Xiao
FastGCN: Schnelles Lernen mit Graph Convolutional Networks durch Importance Sampling
Abstract

Die von Kipf und Welling kürzlich vorgeschlagenen Graph Convolutional Networks (GCN) sind ein effektives Graphmodell für semisupervises Lernen. Dieses Modell wurde jedoch ursprünglich so konzipiert, dass sowohl Trainings- als auch Testdaten zur Verfügung stehen müssen. Darüber hinaus stellt die rekursive Nachbarschaftserweiterung über Schichten zeitliche und speicherbezogene Herausforderungen bei der Ausbildung mit großen, dichten Graphen dar. Um die Anforderung der gleichzeitigen Verfügbarkeit von Testdaten zu lockern, interpretieren wir Graphkonvolutionen als Integraltransformationen von Einbettungsfunktionen unter Wahrscheinlichkeitsmaßen. Eine solche Interpretation ermöglicht es, durch Monte-Carlo-Methoden die Integrale konsistent zu schätzen, was wiederum zu einem batchbasierten Trainingsverfahren führt, wie wir es in dieser Arbeit --- FastGCN --- vorschlagen. Durch die Erweiterung um Importance Sampling ist FastGCN nicht nur effizient im Training, sondern auch gut geeignet für Inferenz. Wir präsentieren eine umfangreiche Reihe von Experimenten, um seine Effektivität im Vergleich zu GCN und verwandten Modellen zu demonstrieren. Insbesondere ist das Training um mehrere Größenordnungen effizienter, während die Vorhersagen vergleichbar genaue Ergebnisse liefern.

FastGCN: Schnelles Lernen mit Graph Convolutional Networks durch Importance Sampling | Neueste Forschungsarbeiten | HyperAI