Grammatical Error Correction On Unrestricted
Metriken
GLEU
Ergebnisse
Leistungsergebnisse verschiedener Modelle zu diesem Benchmark
Vergleichstabelle
Modellname | GLEU |
---|---|
reaching-human-level-performance-in-automatic | 62.37 |
reaching-human-level-performance-in-automatic | - |
lm-critic-language-models-for-unsupervised | - |