HyperAIHyperAI

Command Palette

Search for a command to run...

Reine Transformers sind leistungsstarke Graphen-Lerner

Jinwoo Kim Tien Dat Nguyen Seonwoo Min Sungjun Cho Moontae Lee Honglak Lee Seunghoon Hong

Zusammenfassung

Wir zeigen, dass herkömmliche Transformers ohne graphspezifische Anpassungen sowohl theoretisch als auch praktisch vielversprechende Ergebnisse in der Graph-Lernung erzielen können. Gegeben einen Graphen, behandeln wir einfach alle Knoten und Kanten als unabhängige Tokens, ergänzen sie durch Token-Embeddings und geben sie an einen Transformer weiter. Bei einer angemessenen Wahl der Token-Embeddings beweisen wir, dass dieser Ansatz theoretisch mindestens so ausdrucksstark ist wie eine invariante Graph-Netzwerkarchitektur (2-IGN), die aus äquivarienten linearen Schichten besteht – eine Architektur, die bereits ausdrucksstärker ist als alle Message-Passing-Graph-Neural-Networks (GNN). Bei der Trainierung auf einem großskaligen Graph-Datensatz (PCQM4Mv2) erreicht unsere Methode, die als Tokenized Graph Transformer (TokenGT) bezeichnet wird, signifikant bessere Ergebnisse als GNN-Baselines und konkurrenzfähige Ergebnisse im Vergleich zu Transformer-Varianten mit komplexen, graphspezifischen Induktionsannahmen. Unsere Implementierung ist unter https://github.com/jw9730/tokengt verfügbar.


KI mit KI entwickeln

Von der Idee bis zum Launch – beschleunigen Sie Ihre KI-Entwicklung mit kostenlosem KI-Co-Coding, sofort einsatzbereiter Umgebung und bestem GPU-Preis.

KI-gestütztes kollaboratives Programmieren
Sofort einsatzbereite GPUs
Die besten Preise

HyperAI Newsletters

Abonnieren Sie unsere neuesten Updates
Wir werden die neuesten Updates der Woche in Ihren Posteingang liefern um neun Uhr jeden Montagmorgen
Unterstützt von MailChimp