HyperAIHyperAI

Command Palette

Search for a command to run...

Systèmes de correction grammaticale neuronale avec pré-entraînement non supervisé sur des données synthétiques

Marcin Junczys-Dowmunt Roman Grundkiewicz Kenneth Heafield

Résumé

Un effort considérable a été fourni pour résoudre le problème de la faible densité des données dans la correction grammaticale par réseaux neuronaux. Dans ce travail, nous proposons une méthode simple mais étonnamment efficace de génération non supervisée d’erreurs synthétiques, fondée sur des ensembles de confusion extraits d’un correcteur orthographique, afin d’accroître la quantité de données d’entraînement. Les données synthétiques sont utilisées pour pré-entraîner un modèle Transformer séquence-à-séquence, ce qui non seulement améliore significativement une base solide entraînée sur des données annotées authentiques, mais permet également le développement d’un système pratique de correction grammaticale dans un contexte où peu de données annotées réelles sont disponibles. Les systèmes développés ont obtenu la première place dans la tâche partagée BEA19, atteignant respectivement 69,47 et 64,24 F0.5_{0.5}0.5 sur les parcours restreint et à faibles ressources, tous deux sur l’ensemble de test W{&}I+LOCNESS. Sur l’ensemble de test populaire CoNLL 2014, nous rapportons des résultats de pointe : 64,16 M{mbox{2^22}} pour le système soumis, et 61,30 M{mbox{2^22}} pour le système contraint entraîné sur les données NUCLE et Lang-8.


Créer de l'IA avec l'IA

De l'idée au lancement — accélérez votre développement IA avec le co-codage IA gratuit, un environnement prêt à l'emploi et le meilleur prix pour les GPU.

Codage assisté par IA
GPU prêts à l’emploi
Tarifs les plus avantageux

HyperAI Newsletters

Abonnez-vous à nos dernières mises à jour
Nous vous enverrons les dernières mises à jour de la semaine dans votre boîte de réception à neuf heures chaque lundi matin
Propulsé par MailChimp