HyperAIHyperAI
il y a 17 jours

Exploitation de données monolingues à grande échelle pour la traduction automatique neurale

{Jian-Huang Lai, Tie-Yan Liu, Yiren Wang, Tao Qin, Lijun Wu, Yingce Xia}
Exploitation de données monolingues à grande échelle pour la traduction automatique neurale
Résumé

Bien que les données monolingues du côté cible aient été démontrées comme très utiles pour améliorer la traduction automatique neurale (NMT, abrégé) grâce à la traduction réciproque (back translation), les données monolingues du côté source restent peu explorées. Dans ce travail, nous étudions comment exploiter à la fois les données monolingues du côté source et celles du côté cible dans le cadre de la NMT, et proposons une stratégie efficace tirant parti des deux types de données. Premièrement, nous générons un bitexte synthétique en traduisant les données monolingues des deux domaines dans l’autre domaine à l’aide de modèles préentraînés sur un bitexte réel. Ensuite, un modèle est entraîné sur une version bruitée du bitexte synthétique concaténé, où chaque séquence source est aléatoirement altérée. Enfin, le modèle est affiné sur le bitexte réel ainsi que sur une version propre d’un sous-ensemble du bitexte synthétique, sans ajout de bruit. Notre approche atteint des résultats de pointe sur les tâches de traduction anglaise ↔ allemande du WMT16, WMT17, WMT18, ainsi que sur la tâche allemande ↔ française du WMT19, ce qui démontre l’efficacité de notre méthode. Nous menons également une étude approfondie sur le rôle de chaque composant du pipeline.