HyperAIHyperAI
vor 11 Tagen

Sign- und Basisinvariante Netzwerke für die spektrale Graph-Darstellungslernung

Derek Lim, Joshua Robinson, Lingxiao Zhao, Tess Smidt, Suvrit Sra, Haggai Maron, Stefanie Jegelka
Sign- und Basisinvariante Netzwerke für die spektrale Graph-Darstellungslernung
Abstract

Wir stellen SignNet und BasisNet vor – neue neuronale Architekturen, die invariant gegenüber zwei wichtigen Symmetrien sind, die von Eigenvektoren ausgehen: (i) Vorzeichenwechsel, da sowohl $v$ als auch $-v$ Eigenvektoren sind; und (ii) allgemeinere Basis-Symmetrien, die in höherdimensionalen Eigenräumen auftreten, wo unendlich viele Basiseigenvektoren existieren. Wir beweisen, dass unsere Netzwerke unter bestimmten Bedingungen universell sind, d. h., sie können jede stetige Funktion von Eigenvektoren mit den gewünschten Invarianzen approximieren. Bei Verwendung von Laplace-Eigenvektoren sind unsere Netzwerke beweisbar ausdrucksstärker als bestehende spektrale Methoden auf Graphen; beispielsweise umfassen sie alle spektralen Graph-Faltungen, bestimmte spektrale Graph-Invarianten sowie früher vorgeschlagene graphische Positionscodierungen als Spezialfälle. Experimente zeigen, dass unsere Netzwerke bestehende Baselines erheblich übertreffen bei der Regression molekularer Graphen, der Lernung ausdrucksstarker Graphendarstellungen sowie der Lernung neuronaler Felder auf Dreiecksnetzen. Unser Code ist unter https://github.com/cptq/SignNet-BasisNet verfügbar.

Sign- und Basisinvariante Netzwerke für die spektrale Graph-Darstellungslernung | Neueste Forschungsarbeiten | HyperAI