Großskalige lernfähige Graphenkonvolutionalnetze

Faltungsschichtnetze (CNNs) haben bei gitterähnlichen Daten wie Bildern großen Erfolg erzielt, aber bei der Verarbeitung allgemeinerer Datenstrukturen wie Graphen stehen ihnen erhebliche Herausforderungen entgegen. In CNNs ermöglichen die trainierbaren lokalen Filter die automatische Extraktion hochstufiger Merkmale. Die Berechnung mit Filtern erfordert eine feste Anzahl geordneter Einheiten im Rezeptivfeld. Allerdings ist sowohl die Anzahl der benachbarten Einheiten in allgemeinen Graphen nicht festgelegt noch sind diese geordnet, was die Anwendung von Faltungsoperationen erschwert. In diesem Beitrag adressieren wir diese Herausforderungen durch den Vorschlag einer lernfähigen graphbasierten Faltungsschicht (LGCL). LGCL wählt für jedes Merkmal automatisch eine feste Anzahl benachbarter Knoten basierend auf Wertebewertungen aus, um graphbasierte Daten in gitterähnliche Strukturen im 1D-Format zu transformieren und damit die Verwendung regulärer Faltungsoperationen auf allgemeinen Graphen zu ermöglichen. Um das Modelltraining auf großen Graphen zu erleichtern, schlagen wir eine Unterrgraphentrainingsmethode vor, um die übermäßigen Speicher- und Rechenressourcenanforderungen zu reduzieren, denen frühere Methoden bei graphbasierten Faltungen ausgesetzt waren. Unsere experimentellen Ergebnisse bei Knotenklassifizierungsaufgaben in sowohl transduktiven als auch induktiven Lernszenarien zeigen, dass unsere Methoden konsistent bessere Leistungen auf den Datensätzen der Zitaten Netzwerke Cora, Citeseer und Pubmed sowie des Protein-Protein-Interaktionsnetzwerks erzielen können. Unsere Ergebnisse deuten zudem darauf hin, dass die vorgeschlagenen Methoden mit der Unterrgraphentrainingsstrategie effizienter sind als frühere Ansätze.