HyperAIHyperAI
vor 2 Monaten

Gerichtete azyklische Graph-Neuronale Netze

Veronika Thost; Jie Chen
Gerichtete azyklische Graph-Neuronale Netze
Abstract

Graphenstrukturierte Daten treten in der Wissenschaft und Technik allgegenwärtig auf. Graph-neuronale Netze (GNNs) sind darauf ausgelegt, den relationalen induktiven Bias, der in Graphen manifest ist, zu nutzen. Es wurde gezeigt, dass sie in Szenarien, in denen Strukturinformationen die Knoteneigenschaften ergänzen, anderen Formen neuronaler Netze überlegen sind. Die am häufigsten verwendete GNN-Architektur aggregiert Informationen aus Nachbarschaften durch Nachrichtenaustausch. Ihre Allgemeinheit hat ihre breite Anwendbarkeit ermöglicht. In dieser Arbeit konzentrieren wir uns auf einen besonderen, aber weit verbreiteten Typ von Graphen – gerichtete azyklische Graphen (DAGs) – und integrieren einen stärkeren induktiven Bias – partielle Ordnung – in die Designkonzeption des neuronalen Netzes. Wir schlagen das \emph{gerichtete azyklische Graph-neuronale Netz} (DAGNN) vor, eine Architektur, die Informationen gemäß dem durch die partielle Ordnung definierten Fluss verarbeitet. Das DAGNN kann als ein Framework betrachtet werden, das frühere Arbeiten als Spezialfälle umfasst (z.B., Modelle für Bäume und Modelle zur rekurrenten Aktualisierung von Knotendarstellungen), jedoch identifizieren wir mehrere entscheidende Komponenten, die frühere Architekturen fehlen. Wir führen umfassende Experimente durch, einschließlich Ausfallstudien, auf repräsentativen DAG-Datensätzen (d.h., Quellcode, neuronale Architekturen und wahrscheinlichkeitstheoretische grafische Modelle) und zeigen die Überlegenheit des DAGNN gegenüber einfacheren DAG-Architekturen sowie allgemeinen Graph-Architekturen.

Gerichtete azyklische Graph-Neuronale Netze | Neueste Forschungsarbeiten | HyperAI