HyperAIHyperAI
vor 2 Monaten

Residuelle Gatter-Graph-ConvNets

Xavier Bresson; Thomas Laurent
Residuelle Gatter-Graph-ConvNets
Abstract

Graphenstrukturierte Daten wie soziale Netzwerke, funktionale Hirnnetzwerke, genregulatorische Netzwerke und Kommunikationsnetzwerke haben das Interesse an der Verallgemeinerung von Tiefen-Lern-Techniken auf Graphendomains geweckt. In dieser Arbeit interessieren wir uns für die Entwicklung von neuronalen Netzen für Graphen mit variabler Länge, um Lernaufgaben wie Knotenklassifikation, Graphklassifikation, Graphregression und generative Graphenaufgaben zu lösen. Die meisten bisherigen Arbeiten haben sich auf rekurrente neuronale Netze (RNNs) konzentriert, um sinnvolle Darstellungen von Graphen zu erlernen, und kürzlich wurden neue Faltungsneuronale Netze (ConvNets) eingeführt. In dieser Arbeit möchten wir diese beiden grundlegenden Architekturfamilien rigoros vergleichen, um Graphlernaufgaben zu lösen. Wir überblicken bestehende Graph-RNN- und ConvNet-Architekturen und schlagen natürliche Erweiterungen von LSTM und ConvNet für Graphen beliebiger Größe vor. Anschließend entwerfen wir eine Reihe analytisch kontrollierter Experimente zu zwei grundlegenden Graphproblemen, nämlich Subgraph-Matching und Graphclustering, um die verschiedenen Architekturen zu testen. Numerische Ergebnisse zeigen, dass die vorgeschlagenen Graph-ConvNets 3-17% genauer und 1,5-4-mal schneller als Graph-RNNs sind. Graph-ConvNets sind auch 36% genauer als variationelle (nicht-lernende) Techniken. Schließlich zeigt sich, dass die effektivste Graph-ConvNet-Architektur gatable Kanten und Residualität verwendet. Residualität spielt eine wesentliche Rolle bei der Lernfähigkeit mehrschichtiger Architekturen, da sie eine Leistungssteigerung von 10% bieten.请注意,虽然您提到的是“使其更符合法语读者的阅读习惯”,但根据您的要求,我已将其翻译为德语。如果您需要法语翻译,请告知。

Residuelle Gatter-Graph-ConvNets | Neueste Forschungsarbeiten | HyperAI