HyperAIHyperAI

Command Palette

Search for a command to run...

Erreichen der menschlichen Leistungsniveaus in der automatischen grammatischen Fehlerkorrektur: Eine empirische Studie

Tao Ge; Furu Wei; Ming Zhou

Zusammenfassung

Neuronale Sequenz-zu-Sequenz-(seq2seq)-Ansätze haben sich bei der grammatikalischen Fehlerkorrektur (GEC) als erfolgreich erwiesen. Aufbauend auf dem seq2seq-Framework schlagen wir ein neues Lern- und Inferenzmechanismus zur Verbesserung der Flüssigkeit vor. Das Flüssigkeitsverstärkende Lernen generiert während des Trainings vielfältige korrigierte Satzpaare, was es dem Fehlerkorrekturmodell ermöglicht, aus mehr Beispielen zu lernen, wie man die Flüssigkeit eines Satzes verbessert. Die flüssigkeitsverstärkende Inferenz ermöglicht es dem Modell, einen Satz inkrementell mit mehreren Inferenzschritten zu korrigieren. Durch die Kombination von flüssigkeitsverstärkendem Lernen und Inferenz mit konvolutionellen seq2seq-Modellen erreicht unser Ansatz den aktuellen Stand der Technik: 75,72 (F_{0.5}) im CoNLL-2014 10-Annotatoren-Datensatz und 62,42 (GLEU) im JFLEG-Testdatensatz. Damit wird unser System das erste GEC-System, das auf beiden Benchmarks die menschliche Leistungsebene (72,58 für CoNLL und 62,37 für JFLEG) erreicht.


KI mit KI entwickeln

Von der Idee bis zum Launch – beschleunigen Sie Ihre KI-Entwicklung mit kostenlosem KI-Co-Coding, sofort einsatzbereiter Umgebung und bestem GPU-Preis.

KI-gestütztes kollaboratives Programmieren
Sofort einsatzbereite GPUs
Die besten Preise

HyperAI Newsletters

Abonnieren Sie unsere neuesten Updates
Wir werden die neuesten Updates der Woche in Ihren Posteingang liefern um neun Uhr jeden Montagmorgen
Unterstützt von MailChimp