HyperAIHyperAI

Command Palette

Search for a command to run...

Sign- und Basisinvariante Netzwerke für die spektrale Graph-Darstellungslernung

Derek Lim Joshua Robinson Lingxiao Zhao Tess Smidt Suvrit Sra Haggai Maron Stefanie Jegelka

Zusammenfassung

Wir stellen SignNet und BasisNet vor – neue neuronale Architekturen, die invariant gegenüber zwei wichtigen Symmetrien sind, die von Eigenvektoren ausgehen: (i) Vorzeichenwechsel, da sowohl vvv als auch v-vv Eigenvektoren sind; und (ii) allgemeinere Basis-Symmetrien, die in höherdimensionalen Eigenräumen auftreten, wo unendlich viele Basiseigenvektoren existieren. Wir beweisen, dass unsere Netzwerke unter bestimmten Bedingungen universell sind, d. h., sie können jede stetige Funktion von Eigenvektoren mit den gewünschten Invarianzen approximieren. Bei Verwendung von Laplace-Eigenvektoren sind unsere Netzwerke beweisbar ausdrucksstärker als bestehende spektrale Methoden auf Graphen; beispielsweise umfassen sie alle spektralen Graph-Faltungen, bestimmte spektrale Graph-Invarianten sowie früher vorgeschlagene graphische Positionscodierungen als Spezialfälle. Experimente zeigen, dass unsere Netzwerke bestehende Baselines erheblich übertreffen bei der Regression molekularer Graphen, der Lernung ausdrucksstarker Graphendarstellungen sowie der Lernung neuronaler Felder auf Dreiecksnetzen. Unser Code ist unter https://github.com/cptq/SignNet-BasisNet verfügbar.


KI mit KI entwickeln

Von der Idee bis zum Launch – beschleunigen Sie Ihre KI-Entwicklung mit kostenlosem KI-Co-Coding, sofort einsatzbereiter Umgebung und bestem GPU-Preis.

KI-gestütztes kollaboratives Programmieren
Sofort einsatzbereite GPUs
Die besten Preise

HyperAI Newsletters

Abonnieren Sie unsere neuesten Updates
Wir werden die neuesten Updates der Woche in Ihren Posteingang liefern um neun Uhr jeden Montagmorgen
Unterstützt von MailChimp
Sign- und Basisinvariante Netzwerke für die spektrale Graph-Darstellungslernung | Paper | HyperAI