HyperAIHyperAI

Command Palette

Search for a command to run...

Variationale Graph-Rekurrente Neuronale Netze

Ehsan Hajiramezanali; Arman Hasanzadeh; Nick Duffield; Krishna R Narayanan; Mingyuan Zhou; Xiaoning Qian

Zusammenfassung

Die Darstellungslernen auf graphenstrukturierten Daten wurden bisher hauptsächlich in statischen Grapheneinstellungen untersucht, während die Bemühungen zur Modellierung dynamischer Graphen noch spärlich sind. In dieser Arbeit entwickeln wir ein neues hierarchisches variationsmodell, das zusätzliche latente Zufallsvariablen einführt, um die verborgenen Zustände eines Graph-Rekurrenten-Neuronalen-Netzes (GRNN) gemeinsam zu modellieren und sowohl topologische als auch Knotenattributänderungen in dynamischen Graphen zu erfassen. Wir argumentieren, dass die Verwendung hochstufiger latenter Zufallsvariablen in diesem variationsbasierten GRNN (VGRNN) die potentielle Variabilität, die in dynamischen Graphen beobachtet wird, sowie die Unsicherheit der latenten Knotendarstellung besser erfassen kann. Mit dem für diese neue VGRNN-Architektur entwickelten semi-impliziten variationsinferenzverfahren (SI-VGRNN) zeigen wir, dass flexible nicht-gaußsche latente Darstellungen den Aufgaben der dynamischen Graphanalyse weiterhelfen können. Unsere Experimente mit mehreren realweltlichen dynamischen Graphendatensätzen verdeutlichen, dass SI-VGRNN und VGRNN bei der Vorhersage dynamischer Links konstant deutlich bessere Ergebnisse erzielen als die bestehenden Baseline- und State-of-the-Art-Methoden.


KI mit KI entwickeln

Von der Idee bis zum Launch – beschleunigen Sie Ihre KI-Entwicklung mit kostenlosem KI-Co-Coding, sofort einsatzbereiter Umgebung und bestem GPU-Preis.

KI-gestütztes kollaboratives Programmieren
Sofort einsatzbereite GPUs
Die besten Preise

HyperAI Newsletters

Abonnieren Sie unsere neuesten Updates
Wir werden die neuesten Updates der Woche in Ihren Posteingang liefern um neun Uhr jeden Montagmorgen
Unterstützt von MailChimp