SIGN: Skalierbare Einführungsgenerierte Graphen-Neuronale Netze

Die Graph-Darstellungslernung wurde kürzlich auf eine breite Palette von Problemen angewendet, die von Computergrafik und Chemie über Hochenergiephysik bis hin zu sozialen Medien reichen. Die Popularität von Graph Neural Networks hat sowohl in der akademischen Forschung als auch in der Industrie großes Interesse geweckt, Methoden zu entwickeln, die auf sehr große Graphen wie die sozialen Netzwerke von Facebook oder Twitter skalieren. In den meisten dieser Ansätze wird die Rechenkosten durch eine Sampling-Strategie reduziert, bei der zu Trainingszeit nur eine Teilmenge der Nachbarn von Knoten oder Unterggraphen beibehalten wird. In diesem Paper stellen wir eine neue, effiziente und skalierbare Architektur für tiefe Graphen-Lernverfahren vor, die den Bedarf an Graph-Sampling umgeht, indem sie Graph-Faltungsfilter unterschiedlicher Größe nutzt, die einer effizienten Vorverarbeitung zugänglich sind und somit eine extrem schnelle Trainings- und Inferenzphase ermöglichen. Unsere Architektur erlaubt die Verwendung verschiedener lokaler Graph-Operatoren (z. B. durch Motive induzierte Adjazenzmatrizen oder personalisierte Page-Rank-Diffusionsmatrizen), um die jeweilige Aufgabe optimal zu unterstützen. Wir führen eine umfassende experimentelle Evaluation auf mehreren offenen Benchmarks durch und zeigen, dass unser Ansatz mit anderen state-of-the-art-Architekturen konkurrieren kann, dabei aber nur einen Bruchteil der Trainings- und Inferenzzeit benötigt. Darüber hinaus erzielen wir state-of-the-art-Ergebnisse auf dem Datensatz ogbn-papers100M, dem größten öffentlichen Graphendatensatz mit über 110 Millionen Knoten und 1,5 Milliarden Kanten.