HyperAIHyperAI

Command Palette

Search for a command to run...

Universelle Graph-Transformer-Self-Attention-Netzwerke

Dai Quoc Nguyen Tu Dinh Nguyen Dinh Phung

Zusammenfassung

Wir stellen ein transformer-basiertes GNN-Modell namens UGformer vor, das zur Lernung von Graph-Darstellungen verwendet wird. Insbesondere präsentieren wir zwei Varianten von UGformer: Die erste Variante (im September 2019 vorgestellt) nutzt den Transformer auf einer Menge von Stichproben-Nachbarn für jeden Eingabeknoten, während die zweite Variante (im Mai 2021 vorgestellt) den Transformer auf allen Eingabeknoten anwendet. Experimentelle Ergebnisse zeigen, dass die erste UGformer-Variante state-of-the-art Genauigkeiten auf Benchmark-Datensätzen für die Graph-Klassifikation sowohl im induktiven als auch im unsupervisierten transduktiven Setting erzielt; die zweite UGformer-Variante erreicht state-of-the-art Ergebnisse für die induktive Text-Klassifikation. Der Quellcode ist verfügbar unter: \url{https://github.com/daiquocnguyen/Graph-Transformer}.


KI mit KI entwickeln

Von der Idee bis zum Launch – beschleunigen Sie Ihre KI-Entwicklung mit kostenlosem KI-Co-Coding, sofort einsatzbereiter Umgebung und bestem GPU-Preis.

KI-gestütztes kollaboratives Programmieren
Sofort einsatzbereite GPUs
Die besten Preise

HyperAI Newsletters

Abonnieren Sie unsere neuesten Updates
Wir werden die neuesten Updates der Woche in Ihren Posteingang liefern um neun Uhr jeden Montagmorgen
Unterstützt von MailChimp
Universelle Graph-Transformer-Self-Attention-Netzwerke | Paper | HyperAI