HyperAIHyperAI
vor 2 Monaten

Erreichen der menschlichen Leistungsniveaus in der automatischen grammatischen Fehlerkorrektur: Eine empirische Studie

Tao Ge; Furu Wei; Ming Zhou
Erreichen der menschlichen Leistungsniveaus in der automatischen grammatischen Fehlerkorrektur: Eine empirische Studie
Abstract

Neuronale Sequenz-zu-Sequenz-(seq2seq)-Ansätze haben sich bei der grammatikalischen Fehlerkorrektur (GEC) als erfolgreich erwiesen. Aufbauend auf dem seq2seq-Framework schlagen wir ein neues Lern- und Inferenzmechanismus zur Verbesserung der Flüssigkeit vor. Das Flüssigkeitsverstärkende Lernen generiert während des Trainings vielfältige korrigierte Satzpaare, was es dem Fehlerkorrekturmodell ermöglicht, aus mehr Beispielen zu lernen, wie man die Flüssigkeit eines Satzes verbessert. Die flüssigkeitsverstärkende Inferenz ermöglicht es dem Modell, einen Satz inkrementell mit mehreren Inferenzschritten zu korrigieren. Durch die Kombination von flüssigkeitsverstärkendem Lernen und Inferenz mit konvolutionellen seq2seq-Modellen erreicht unser Ansatz den aktuellen Stand der Technik: 75,72 (F_{0.5}) im CoNLL-2014 10-Annotatoren-Datensatz und 62,42 (GLEU) im JFLEG-Testdatensatz. Damit wird unser System das erste GEC-System, das auf beiden Benchmarks die menschliche Leistungsebene (72,58 für CoNLL und 62,37 für JFLEG) erreicht.

Erreichen der menschlichen Leistungsniveaus in der automatischen grammatischen Fehlerkorrektur: Eine empirische Studie | Neueste Forschungsarbeiten | HyperAI