HyperAIHyperAI

Command Palette

Search for a command to run...

Apprentissage en traduction : Vecteurs de mots contextualisés

Bryan McCann James Bradbury Caiming Xiong Richard Socher

Résumé

La vision par ordinateur a bénéficié de l'initialisation de plusieurs couches profondes avec des poids pré-entraînés sur de grands ensembles d'apprentissage supervisés comme ImageNet. Le traitement du langage naturel (NLP) voit généralement l'initialisation uniquement de la couche la plus basse des modèles profonds avec des vecteurs de mots pré-entraînés. Dans cet article, nous utilisons un encodeur LSTM profond issu d'un modèle séquence-à-séquence à attention entraîné pour la traduction automatique (MT) afin de contextualiser les vecteurs de mots. Nous montrons que l'ajout de ces vecteurs contextuels (CoVe) améliore les performances par rapport à l'utilisation seule de vecteurs de mots et de caractères non supervisés sur une variété d'applications courantes en NLP : analyse de sentiments (SST, IMDb), classification de questions (TREC), inférence sémantique (SNLI) et réponse à des questions (SQuAD). Pour l'analyse de sentiments fine-grained et l'inférence sémantique, CoVe améliore les performances de nos modèles basiques jusqu'à atteindre l'état de l'art.


Créer de l'IA avec l'IA

De l'idée au lancement — accélérez votre développement IA avec le co-codage IA gratuit, un environnement prêt à l'emploi et le meilleur prix pour les GPU.

Codage assisté par IA
GPU prêts à l’emploi
Tarifs les plus avantageux

HyperAI Newsletters

Abonnez-vous à nos dernières mises à jour
Nous vous enverrons les dernières mises à jour de la semaine dans votre boîte de réception à neuf heures chaque lundi matin
Propulsé par MailChimp