HyperAIHyperAI

Command Palette

Search for a command to run...

Rekursiver nicht-autoregressiver Graph-zu-Graph-Transformer für die Abhängigkeitsanalyse mit iterativer Verbesserung

Alireza Mohammadshahi James Henderson

Zusammenfassung

Wir stellen die rekursive nicht-autoregressive Graph-to-Graph-Transformer-Architektur (RNGTr) zur iterativen Verbesserung beliebiger Graphen durch rekursive Anwendung eines nicht-autoregressiven Graph-to-Graph-Transformers vor und wenden sie auf die syntaktische Abhängigkeitsanalyse an. Wir demonstrieren die Leistungsfähigkeit und Effektivität von RNGTr an mehreren Abhängigkeitskorpora unter Verwendung eines mit BERT vortrainierten Verbesserungsmodells. Außerdem führen wir den Syntactic Transformer (SynTr) ein, einen nicht-rekursiven Parser, der unserem Verbesserungsmodell ähnelt. RNGTr verbessert die Genauigkeit verschiedener Ausgangsparsen auf 13 Sprachen aus den Universal Dependencies Treebanks, den English- und Chinese-Penn-Treebank-Korpora sowie der deutschen CoNLL2009-Korpus, und erreicht sogar Ergebnisse, die die neuen State-of-the-Art-Ergebnisse von SynTr übertreffen, wodurch die State-of-the-Art-Leistung für alle getesteten Korpora signifikant verbessert wird.


KI mit KI entwickeln

Von der Idee bis zum Launch – beschleunigen Sie Ihre KI-Entwicklung mit kostenlosem KI-Co-Coding, sofort einsatzbereiter Umgebung und bestem GPU-Preis.

KI-gestütztes kollaboratives Programmieren
Sofort einsatzbereite GPUs
Die besten Preise

HyperAI Newsletters

Abonnieren Sie unsere neuesten Updates
Wir werden die neuesten Updates der Woche in Ihren Posteingang liefern um neun Uhr jeden Montagmorgen
Unterstützt von MailChimp
Rekursiver nicht-autoregressiver Graph-zu-Graph-Transformer für die Abhängigkeitsanalyse mit iterativer Verbesserung | Paper | HyperAI