HyperAIHyperAI

Command Palette

Search for a command to run...

Attention Gumbel pour la traduction automatique multimodale

Pengbo Liu Hailong Cao Tiejun Zhao

Résumé

La traduction automatique multimodale (MMT) améliore la qualité de la traduction en intégrant des informations visuelles. Toutefois, les modèles MMT existants négligent le problème selon lequel l’image peut introduire des informations non pertinentes par rapport au texte, entraînant ainsi un bruit important pour le modèle et affectant négativement la qualité de la traduction. Ce papier propose une nouvelle approche, appelée Gumbel-Attention, pour la traduction automatique multimodale, qui sélectionne les parties des caractéristiques d’image pertinentes par rapport au texte. Plus précisément, contrairement aux méthodes précédentes basées sur l’attention, nous utilisons tout d’abord une méthode différentiable afin de sélectionner l’information visuelle et d’éliminer automatiquement les parties inutiles des caractéristiques d’image. Les expériences montrent que notre méthode préserve les caractéristiques d’image liées au texte, et que les parties restantes contribuent à produire des traductions de meilleure qualité dans le cadre du modèle MMT.


Créer de l'IA avec l'IA

De l'idée au lancement — accélérez votre développement IA avec le co-codage IA gratuit, un environnement prêt à l'emploi et le meilleur prix pour les GPU.

Codage assisté par IA
GPU prêts à l’emploi
Tarifs les plus avantageux

HyperAI Newsletters

Abonnez-vous à nos dernières mises à jour
Nous vous enverrons les dernières mises à jour de la semaine dans votre boîte de réception à neuf heures chaque lundi matin
Propulsé par MailChimp
Attention Gumbel pour la traduction automatique multimodale | Articles | HyperAI