HyperAIHyperAI

Command Palette

Search for a command to run...

Décodage Global Basé sur la Déconvolution pour la Traduction automatique neuronale

Junyang Lin Xu Sun Xuancheng Ren Shuming Ma Jinsong Su Qi Su

Résumé

Une grande proportion des modèles de séquence à séquence (Seq2Seq) pour la traduction automatique neuronale (NMT) utilise un réseau neuronal récurrent (RNN) pour générer la traduction mot par mot selon une ordre séquentiel. Comme les études en linguistique l'ont prouvé, le langage n'est pas une simple séquence linéaire de mots, mais une séquence de structures complexes ; ainsi, chaque étape de la traduction devrait être conditionnée par le contexte global du côté cible. Pour résoudre ce problème, nous proposons un nouveau modèle NMT qui décode la séquence sous la direction de sa prédiction structurale du contexte de la séquence cible. Notre modèle génère des traductions basées sur la prédiction structurale du contexte du côté cible, permettant ainsi d'affranchir la traduction des contraintes de l'ordre séquentiel. Les résultats expérimentaux montrent que notre modèle est plus compétitif par rapport aux méthodes les plus avancées actuellement disponibles, et l'analyse révèle également que notre modèle est robuste à la traduction de phrases de différentes longueurs et qu'il réduit les répétitions grâce aux instructions tirées du contexte cible pour le décodage.


Créer de l'IA avec l'IA

De l'idée au lancement — accélérez votre développement IA avec le co-codage IA gratuit, un environnement prêt à l'emploi et le meilleur prix pour les GPU.

Codage assisté par IA
GPU prêts à l’emploi
Tarifs les plus avantageux

HyperAI Newsletters

Abonnez-vous à nos dernières mises à jour
Nous vous enverrons les dernières mises à jour de la semaine dans votre boîte de réception à neuf heures chaque lundi matin
Propulsé par MailChimp
Décodage Global Basé sur la Déconvolution pour la Traduction automatique neuronale | Articles | HyperAI