HyperAIHyperAI
il y a 2 mois

Confiance par l'attention

Matīss Rikters; Mark Fishel
Confiance par l'attention
Résumé

Les distributions d'attention des traductions générées constituent un sous-produit utile des modèles de traduction par réseaux neuronaux récurrents à base d'attention et peuvent être considérées comme des alignements souples entre les jetons d'entrée et de sortie. Dans cette étude, nous utilisons les distributions d'attention comme métrique de confiance pour les traductions de sortie. Nous présentons deux stratégies d'utilisation des distributions d'attention : filtrer les mauvaises traductions dans un corpus important de traductions inverses, et sélectionner la meilleure traduction dans une configuration hybride de deux systèmes de traduction différents. Bien que l'évaluation manuelle ait indiqué seulement une faible corrélation entre notre score de confiance et les jugements humains, les cas d'utilisation ont montré des améliorations allant jusqu'à 2,22 points BLEU pour le filtrage et 0,99 point pour la traduction hybride, testés sur la traduction anglais-allemand et anglais-lituanien.