Aborder la correction grammaticale neuronale comme une tâche de traduction automatique à faibles ressources

Précédemment, les méthodes neuronales dans la correction d'erreurs grammaticales (CER) n'atteignaient pas des résultats de pointe comparés aux lignes de base de la traduction automatique statistique basée sur des phrases (SMT). Nous démontrons des parallèles entre la CER neuronale et la traduction automatique neuronale à faibles ressources et adaptons avec succès plusieurs méthodes de la traduction automatique neuronale à faibles ressources à la CER neuronale. Nous établissons également des directives pour des résultats fiables en CER neuronale et proposons un ensemble de méthodes indépendantes du modèle pour la CER neuronale qui peuvent être facilement appliquées dans la plupart des configurations de CER. Les méthodes proposées incluent l'ajout de bruit côté source, des techniques d'adaptation au domaine, un objectif d'entraînement spécifique à la CER, l'apprentissage par transfert avec des données monolingues, et l'agrégation de modèles de CER entraînés indépendamment et de modèles linguistiques. Les effets combinés de ces méthodes conduisent à des modèles de CER neuronaux supérieurs aux systèmes précédents les plus performants en matière de CER neuronale, surpassant ceux-ci d'au moins 10% M$^2$ sur le banc d'essai CoNLL-2014 et de 5,9% sur l'ensemble de tests JFLEG. Les systèmes non neuronaux les plus performants sont dépassés d'au moins 2% sur le banc d'essai CoNLL-2014 et de 4% sur JFLEG.