Décodage Global Basé sur la Déconvolution pour la Traduction automatique neuronale

Une grande proportion des modèles de séquence à séquence (Seq2Seq) pour la traduction automatique neuronale (NMT) utilise un réseau neuronal récurrent (RNN) pour générer la traduction mot par mot selon une ordre séquentiel. Comme les études en linguistique l'ont prouvé, le langage n'est pas une simple séquence linéaire de mots, mais une séquence de structures complexes ; ainsi, chaque étape de la traduction devrait être conditionnée par le contexte global du côté cible. Pour résoudre ce problème, nous proposons un nouveau modèle NMT qui décode la séquence sous la direction de sa prédiction structurale du contexte de la séquence cible. Notre modèle génère des traductions basées sur la prédiction structurale du contexte du côté cible, permettant ainsi d'affranchir la traduction des contraintes de l'ordre séquentiel. Les résultats expérimentaux montrent que notre modèle est plus compétitif par rapport aux méthodes les plus avancées actuellement disponibles, et l'analyse révèle également que notre modèle est robuste à la traduction de phrases de différentes longueurs et qu'il réduit les répétitions grâce aux instructions tirées du contexte cible pour le décodage.