HyperAIHyperAI

Command Palette

Search for a command to run...

Amélioration de la correction des erreurs grammaticales par le pré-entraînement d'une architecture augmentée de copie avec des données non étiquetées

Wei Zhao; Liang Wang; Kewei Shen; Ruoyu Jia; Jingming Liu

Résumé

Les systèmes de traduction automatique neuronale sont devenus les approches de pointe pour la tâche de correction grammaticale des erreurs (GEC). Dans cet article, nous proposons une architecture augmentée par copie pour la tâche GEC, qui consiste à copier les mots inchangés de la phrase source vers la phrase cible. Étant donné que la tâche GEC souffre d'un manque de données d'entraînement étiquetées suffisantes pour atteindre une haute précision, nous pré-entraînons l'architecture augmentée par copie avec un dénoising auto-encodeur en utilisant le benchmark One Billion non étiqueté et effectuons des comparaisons entre le modèle entièrement pré-entraîné et un modèle partiellement pré-entraîné. Il s'agit de la première fois que l'on expérimente la copie de mots du contexte source et le pré-entraînement complet d'un modèle séquence à séquence sur la tâche GEC. De plus, nous ajoutons un apprentissage multi-tâches au niveau des tokens et des phrases pour la tâche GEC. Les résultats d'évaluation sur l'ensemble de test CoNLL-2014 montrent que notre approche surpass largement tous les résultats récemment publiés dans l'état de l'art. Le code et les modèles pré-entraînés sont disponibles à l'adresse https://github.com/zhawe01/fairseq-gec.


Créer de l'IA avec l'IA

De l'idée au lancement — accélérez votre développement IA avec le co-codage IA gratuit, un environnement prêt à l'emploi et le meilleur prix pour les GPU.

Codage assisté par IA
GPU prêts à l’emploi
Tarifs les plus avantageux

HyperAI Newsletters

Abonnez-vous à nos dernières mises à jour
Nous vous enverrons les dernières mises à jour de la semaine dans votre boîte de réception à neuf heures chaque lundi matin
Propulsé par MailChimp