HyperAIHyperAI

Command Palette

Search for a command to run...

GECToR -- Grammatikfehlerkorrektur: Taggen, nicht Umformulieren

Kostiantyn Omelianchuk Vitaliy Atrasevych Artem Chernodub Oleksandr Skurzhanskyi

Zusammenfassung

In diesem Paper präsentieren wir einen einfachen und effizienten GEC-Sequenz-Tagger, der einen Transformer-Encoder nutzt. Unser System wird zunächst auf synthetischen Daten vortrainiert und anschließend in zwei Stufen feinabgestimmt: zunächst auf fehlerbehafteten Korpora und danach auf einer Kombination aus fehlerbehafteten und fehlerfreien parallelen Korpora. Wir entwickeln maßgeschneiderte tokenbasierte Transformationen, um Eingabetokens auf Zielkorrekturen abzubilden. Der beste Einzelmodell-/Ensemble-GEC-Tagger erreicht eine F0.5F_{0.5}F0.5-Wert von 65,3/66,5 auf CoNLL-2014 (Test) und eine F0.5F_{0.5}F0.5-Wert von 72,4/73,6 auf BEA-2019 (Test). Die Inferenzgeschwindigkeit liegt bis zu zehnmal höher als die eines Transformer-basierten Seq2Seq-GEC-Systems. Der Quellcode und die trainierten Modelle sind öffentlich verfügbar.


KI mit KI entwickeln

Von der Idee bis zum Launch – beschleunigen Sie Ihre KI-Entwicklung mit kostenlosem KI-Co-Coding, sofort einsatzbereiter Umgebung und bestem GPU-Preis.

KI-gestütztes kollaboratives Programmieren
Sofort einsatzbereite GPUs
Die besten Preise

HyperAI Newsletters

Abonnieren Sie unsere neuesten Updates
Wir werden die neuesten Updates der Woche in Ihren Posteingang liefern um neun Uhr jeden Montagmorgen
Unterstützt von MailChimp
GECToR -- Grammatikfehlerkorrektur: Taggen, nicht Umformulieren | Paper | HyperAI