HyperAIHyperAI

Command Palette

Search for a command to run...

Confiance par l'attention

Matīss Rikters Mark Fishel

Résumé

Les distributions d'attention des traductions générées constituent un sous-produit utile des modèles de traduction par réseaux neuronaux récurrents à base d'attention et peuvent être considérées comme des alignements souples entre les jetons d'entrée et de sortie. Dans cette étude, nous utilisons les distributions d'attention comme métrique de confiance pour les traductions de sortie. Nous présentons deux stratégies d'utilisation des distributions d'attention : filtrer les mauvaises traductions dans un corpus important de traductions inverses, et sélectionner la meilleure traduction dans une configuration hybride de deux systèmes de traduction différents. Bien que l'évaluation manuelle ait indiqué seulement une faible corrélation entre notre score de confiance et les jugements humains, les cas d'utilisation ont montré des améliorations allant jusqu'à 2,22 points BLEU pour le filtrage et 0,99 point pour la traduction hybride, testés sur la traduction anglais-allemand et anglais-lituanien.


Créer de l'IA avec l'IA

De l'idée au lancement — accélérez votre développement IA avec le co-codage IA gratuit, un environnement prêt à l'emploi et le meilleur prix pour les GPU.

Codage assisté par IA
GPU prêts à l’emploi
Tarifs les plus avantageux

HyperAI Newsletters

Abonnez-vous à nos dernières mises à jour
Nous vous enverrons les dernières mises à jour de la semaine dans votre boîte de réception à neuf heures chaque lundi matin
Propulsé par MailChimp
Confiance par l'attention | Articles | HyperAI