HyperAIHyperAI

Command Palette

Search for a command to run...

FastGCN: Schnelles Lernen mit Graph Convolutional Networks durch Importance Sampling

Jie Chen; Tengfei Ma; Cao Xiao

Zusammenfassung

Die von Kipf und Welling kürzlich vorgeschlagenen Graph Convolutional Networks (GCN) sind ein effektives Graphmodell für semisupervises Lernen. Dieses Modell wurde jedoch ursprünglich so konzipiert, dass sowohl Trainings- als auch Testdaten zur Verfügung stehen müssen. Darüber hinaus stellt die rekursive Nachbarschaftserweiterung über Schichten zeitliche und speicherbezogene Herausforderungen bei der Ausbildung mit großen, dichten Graphen dar. Um die Anforderung der gleichzeitigen Verfügbarkeit von Testdaten zu lockern, interpretieren wir Graphkonvolutionen als Integraltransformationen von Einbettungsfunktionen unter Wahrscheinlichkeitsmaßen. Eine solche Interpretation ermöglicht es, durch Monte-Carlo-Methoden die Integrale konsistent zu schätzen, was wiederum zu einem batchbasierten Trainingsverfahren führt, wie wir es in dieser Arbeit --- FastGCN --- vorschlagen. Durch die Erweiterung um Importance Sampling ist FastGCN nicht nur effizient im Training, sondern auch gut geeignet für Inferenz. Wir präsentieren eine umfangreiche Reihe von Experimenten, um seine Effektivität im Vergleich zu GCN und verwandten Modellen zu demonstrieren. Insbesondere ist das Training um mehrere Größenordnungen effizienter, während die Vorhersagen vergleichbar genaue Ergebnisse liefern.


KI mit KI entwickeln

Von der Idee bis zum Launch – beschleunigen Sie Ihre KI-Entwicklung mit kostenlosem KI-Co-Coding, sofort einsatzbereiter Umgebung und bestem GPU-Preis.

KI-gestütztes kollaboratives Programmieren
Sofort einsatzbereite GPUs
Die besten Preise

HyperAI Newsletters

Abonnieren Sie unsere neuesten Updates
Wir werden die neuesten Updates der Woche in Ihren Posteingang liefern um neun Uhr jeden Montagmorgen
Unterstützt von MailChimp