HyperAIHyperAI

Command Palette

Search for a command to run...

Selbst-Aufmerksamkeits-Graph-Pooling

Junhyun Lee; Inyeop Lee; Jaewoo Kang

Zusammenfassung

In den letzten Jahren wurden fortschrittliche Methoden zur Anwendung von Deep Learning auf strukturierte Daten wie Graphen vorgeschlagen. Insbesondere haben Studien sich darauf konzentriert, Faltungsneuronale Netze (CNNs) auf Graphendaten zu verallgemeinern, was die Neubestimmung der Faltung und der Downsampling-Operationen (Pooling) für Graphen einschließt. Die Verallgemeinerung der Faltungsoperation auf Graphen wurde als leistungsfähiger erwiesen und wird weit verbreitet eingesetzt. Allerdings ist die Anwendung von Downsampling auf Graphen weiterhin schwierig und bietet Verbesserungspotential. In dieser Arbeit schlagen wir eine Graph-Pooling-Methode vor, die auf Selbst-Aufmerksamkeit basiert. Durch die Verwendung von Graph-Faltung bei der Selbst-Aufmerksamkeit kann unsere Pooling-Methode sowohl Knotenattribute als auch die Graphentopologie berücksichtigen. Um einen fairen Vergleich sicherzustellen, wurden für die existierenden Pooling-Methoden und unsere Methode dieselben Trainingsprozeduren und Modellarchitekturen verwendet. Die experimentellen Ergebnisse zeigen, dass unsere Methode überlegene Leistungen in der Graph-Klassifizierung auf Benchmark-Datensätzen erzielt, wobei eine angemessene Anzahl von Parametern verwendet wird.


KI mit KI entwickeln

Von der Idee bis zum Launch – beschleunigen Sie Ihre KI-Entwicklung mit kostenlosem KI-Co-Coding, sofort einsatzbereiter Umgebung und bestem GPU-Preis.

KI-gestütztes kollaboratives Programmieren
Sofort einsatzbereite GPUs
Die besten Preise

HyperAI Newsletters

Abonnieren Sie unsere neuesten Updates
Wir werden die neuesten Updates der Woche in Ihren Posteingang liefern um neun Uhr jeden Montagmorgen
Unterstützt von MailChimp