HyperAIHyperAI
vor 2 Monaten

Skalierbare Graph-Neuronale Netze für heterogene Graphen

Lingfan Yu; Jiajun Shen; Jinyang Li; Adam Lerer
Skalierbare Graph-Neuronale Netze für heterogene Graphen
Abstract

Graphen-neuronale Netze (GNNs) sind eine beliebte Klasse parametrischer Modelle zur Analyse von graphstrukturierten Daten. Kürzliche Studien haben argumentiert, dass GNNs hauptsächlich den Graphen für die Glättung von Merkmalen verwenden und durch das einfache Arbeiten mit glätteten Knotenmerkmalen in Benchmark-Aufgaben wettbewerbsfähige Ergebnisse erzielt wurden, anstatt aufwendige, end-to-end gelernte MerkmalsHierarchyen zu verwenden, die es schwierig machen, große Graphen zu skalieren. In dieser Arbeit untersuchen wir, ob diese Ergebnisse auf heterogene Graphen übertragen werden können, die mehrere Arten von Beziehungen zwischen verschiedenen Entitäten kodieren. Wir schlagen Neighbor Averaging over Relation Subgraphs (NARS) vor, ein Verfahren, das einen Klassifikator auf durchschnittlichen Merkmalen der Nachbarn in zufällig ausgewählten Teilgraphen des "Metagraphen" der Beziehungen trainiert. Wir beschreiben Optimierungen, die es ermöglichen, diese Mengen von Knotenmerkmalen auf speichereffiziente Weise sowohl während des Trainings als auch der Inferenz zu berechnen. NARS erreicht eine neue Referenzgenauigkeit auf mehreren Benchmark-Datensätzen und übertrifft dabei kostspieligere GNN-basierte Methoden.