HyperAIHyperAI

Command Palette

Search for a command to run...

Gradient Gating für tiefes Multi-Rate-Lernen auf Graphen

T. Konstantin Rusch Benjamin P. Chamberlain Michael W. Mahoney Michael M. Bronstein Siddhartha Mishra

Zusammenfassung

Wir präsentieren Gradient Gating (G2^22), einen neuartigen Rahmen zur Verbesserung der Leistung von Graph Neural Networks (GNNs). Unser Ansatz basiert auf der Gating-Modulation der Ausgaben von GNN-Schichten mittels eines Mechanismus für die mehrfach gestufte Übertragung von Nachrichteninformationen zwischen den Knoten des zugrundeliegenden Graphen. Lokale Gradienten werden zusätzlich genutzt, um die Aktualisierungen bei der Nachrichtenübertragung weiter zu modulieren. Unser Rahmen ermöglicht es flexibel, jede grundlegende GNN-Schicht als Wrapper zu verwenden, um den mehrstufigen Gradienten-Gating-Mechanismus darauf aufzubauen. Wir beweisen rigoros, dass G2^22 das Überglättungsproblem (oversmoothing) verringert und die Entwicklung tiefer GNNs ermöglicht. Empirische Ergebnisse zeigen, dass der vorgeschlagene Ansatz auf einer Vielzahl von Graph-Lernaufgaben, einschließlich großer heterophiler Graphen, state-of-the-art-Leistungen erzielt.


KI mit KI entwickeln

Von der Idee bis zum Launch – beschleunigen Sie Ihre KI-Entwicklung mit kostenlosem KI-Co-Coding, sofort einsatzbereiter Umgebung und bestem GPU-Preis.

KI-gestütztes kollaboratives Programmieren
Sofort einsatzbereite GPUs
Die besten Preise

HyperAI Newsletters

Abonnieren Sie unsere neuesten Updates
Wir werden die neuesten Updates der Woche in Ihren Posteingang liefern um neun Uhr jeden Montagmorgen
Unterstützt von MailChimp
Gradient Gating für tiefes Multi-Rate-Lernen auf Graphen | Paper | HyperAI