Graph Attention Networks Graph Attention Netze

Wir stellen Graph Attention Networks (GATs) vor, innovative neuronale Netzwerkarchitekturen, die auf graphenstrukturierten Daten operieren und maskierte selbst-attentionale Schichten nutzen, um die Nachteile früherer Methoden basierend auf Graphkonvolutionen oder deren Approximationen zu überwinden. Durch das Stapeln von Schichten, in denen Knoten in der Lage sind, sich auf die Merkmale ihrer Nachbarschaft zu konzentrieren, ermöglichen wir es, unterschiedliche Gewichte implizit verschiedenen Knoten in einer Nachbarschaft zuzuweisen, ohne dass teure Matrixoperationen (wie Inversion) erforderlich sind oder dass die Graphstruktur im Voraus bekannt sein muss. Auf diese Weise lösen wir gleichzeitig mehrere wichtige Herausforderungen spektralbasierter Graphneuralnetzwerke und machen unser Modell sowohl für induktive als auch für transductive Probleme geeignet. Unsere GAT-Modelle haben in vier etablierten Benchmarks für transductive und induktive Graphprobleme state-of-the-art-Ergebnisse erreicht oder übertroffen: den Cora-, Citeseer- und Pubmed-Zitatenetzwerkdatsätzen sowie einem Protein-Protein-Interaktionsdatensatz (bei dem Testgraphen während des Trainings nicht gesehen werden).请注意,"transductive" 在德语中通常写作 "transduktive"。因此,最后一句可以调整为:Unsere GAT-Modelle haben in vier etablierten Benchmarks für transduktive und induktive Graphprobleme state-of-the-art-Ergebnisse erreicht oder übertroffen: den Cora-, Citeseer- und Pubmed-Zitatenetzwerkdatsätzen sowie einem Protein-Protein-Interaktionsdatensatz (bei dem Testgraphen während des Trainings nicht gesehen werden).