HyperAIHyperAI

Command Palette

Search for a command to run...

Traduction Non-Auto-Régressive des Machines Neurales

Jiatao Gu†; James Bradbury‡, Caiming Xiong‡, Victor O.K. Li† & Richard Socher‡

Résumé

Les approches existantes de la traduction automatique neuronale conditionnent chaque mot de sortie sur les sorties précédemment générées. Nous présentons un modèle qui évite cette propriété auto-régressive et produit ses sorties en parallèle, permettant une latence inférieure d'un ordre de grandeur lors de l'inférence. Grâce à la distillation de connaissances, l'utilisation des fécondités des jetons d'entrée comme variable latente et le réglage fin par gradient de politique, nous atteignons cela au coût minimal de 2,0 points BLEU par rapport au réseau Transformer auto-régressif utilisé comme enseignant. Nous démontrons des améliorations cumulatives substantielles associées à chacun des trois aspects de notre stratégie d'entraînement, et nous validons notre approche sur les paires linguistiques IWSLT 2016 anglais-allemand et deux paires du WMT. En échantillonnant les fécondités en parallèle lors de l'inférence, notre modèle non auto-régressif atteint une performance quasi-d'État de l'art de 29,8 BLEU sur WMT 2016 anglais-roumain.


Créer de l'IA avec l'IA

De l'idée au lancement — accélérez votre développement IA avec le co-codage IA gratuit, un environnement prêt à l'emploi et le meilleur prix pour les GPU.

Codage assisté par IA
GPU prêts à l’emploi
Tarifs les plus avantageux

HyperAI Newsletters

Abonnez-vous à nos dernières mises à jour
Nous vous enverrons les dernières mises à jour de la semaine dans votre boîte de réception à neuf heures chaque lundi matin
Propulsé par MailChimp
Traduction Non-Auto-Régressive des Machines Neurales | Articles | HyperAI