HyperAIHyperAI

Command Palette

Search for a command to run...

DropGNN: Zufällige Dropouts erhöhen die Ausdruckskraft von Graph Neural Networks

Pál András Papp Karolis Martinkus Lukas Faber Roger Wattenhofer

Zusammenfassung

Diese Arbeit untersucht Dropout-Graphneuronale Netze (DropGNNs), einen neuen Ansatz, der darauf abzielt, die Einschränkungen herkömmlicher GNN-Frameworks zu überwinden. Bei DropGNNs führen wir mehrere Durchläufe eines GNN auf dem Eingabegraphen durch, wobei in jedem Durchlauf einige Knoten zufällig und unabhängig voneinander entfernt werden. Anschließend kombinieren wir die Ergebnisse dieser Durchläufe, um das endgültige Ergebnis zu erzielen. Wir beweisen, dass DropGNNs verschiedene Graph-Nachbarschaften unterscheiden können, die durch Nachrichtenübertragungs-GNNs nicht separiert werden können. Wir leiten theoretische Schranken für die Anzahl der Durchläufe ab, die erforderlich sind, um eine zuverlässige Verteilung der Dropout-Operationen sicherzustellen, und beweisen mehrere Eigenschaften hinsichtlich der Ausdruckskraft und Grenzen von DropGNNs. Experimentell validieren wir unsere theoretischen Erkenntnisse zur Ausdruckskraft. Zudem zeigen wir, dass DropGNNs auf etablierten GNN-Benchmarks wettbewerbsfähig abschneiden.


KI mit KI entwickeln

Von der Idee bis zum Launch – beschleunigen Sie Ihre KI-Entwicklung mit kostenlosem KI-Co-Coding, sofort einsatzbereiter Umgebung und bestem GPU-Preis.

KI-gestütztes kollaboratives Programmieren
Sofort einsatzbereite GPUs
Die besten Preise

HyperAI Newsletters

Abonnieren Sie unsere neuesten Updates
Wir werden die neuesten Updates der Woche in Ihren Posteingang liefern um neun Uhr jeden Montagmorgen
Unterstützt von MailChimp