HyperAIHyperAI

Command Palette

Search for a command to run...

Transformers Treffen Gerichtete Graphen

Simon Geisler; Yujia Li; Daniel Mankowitz; Ali Taylan Cemgil; Stephan Günnemann; Cosmin Paduraru

Zusammenfassung

Transformer wurden ursprünglich als sequenzbasierte Modelle für Text vorgeschlagen, sind jedoch inzwischen für eine Vielzahl von Modalitäten unerlässlich geworden, darunter Bilder, Audio, Video und ungerichtete Graphen. Überraschenderweise ist das Thema Transformer für gerichtete Graphen trotz ihrer Anwendbarkeit in allgegenwärtigen Bereichen wie Quellcode und Schaltkreise bisher wenig erforscht. In dieser Arbeit schlagen wir zwei positionelle Codierungen vor, die sowohl Richtung als auch Struktur berücksichtigen: (1) die Eigenvektoren des magnetischen Laplace-Operators – eine richtungsbezogene Verallgemeinerung des kombinatorischen Laplace-Operators; (2) richtungsbezogene Random-Walk-Codierungen. Empirisch zeigen wir, dass die zusätzlichen richtungsbezogenen Informationen in verschiedenen nachgelagerten Aufgaben nützlich sind, darunter die Korrektheitstests von Sortiernetzwerken und das Verständnis von Quellcode. In Kombination mit einer datenflusszentrierten Graphenkonstruktion übertrifft unser Modell den bisherigen Stand der Technik im Open Graph Benchmark Code2 um 14,7 %.


KI mit KI entwickeln

Von der Idee bis zum Launch – beschleunigen Sie Ihre KI-Entwicklung mit kostenlosem KI-Co-Coding, sofort einsatzbereiter Umgebung und bestem GPU-Preis.

KI-gestütztes kollaboratives Programmieren
Sofort einsatzbereite GPUs
Die besten Preise

HyperAI Newsletters

Abonnieren Sie unsere neuesten Updates
Wir werden die neuesten Updates der Woche in Ihren Posteingang liefern um neun Uhr jeden Montagmorgen
Unterstützt von MailChimp