HyperAIHyperAI

Command Palette

Search for a command to run...

TRANS-BLSTM : Transformer avec LSTM bidirectionnel pour la compréhension du langage

Zhiheng Huang Peng Xu Davis Liang Ajay Mishra Bing Xiang

Résumé

Les représentations bidirectionnelles d’encodeurs à partir des transformateurs (BERT) ont récemment atteint des performances de pointe sur une large gamme de tâches de traitement du langage naturel, notamment la classification de phrases, la traduction automatique et la réponse aux questions. L’architecture du modèle BERT s’inspire principalement du transformateur. Avant l’ère du transformateur, les réseaux de mémoire à long terme bidirectionnels (BLSTM) constituaient l’architecture dominante pour la traduction automatique neuronale et la réponse aux questions. Dans ce travail, nous explorons la manière dont ces deux approches de modélisation peuvent être combinées afin de concevoir une architecture de modèle plus puissante. Nous proposons une nouvelle architecture, désignée par TRANS-BLSTM, qui intègre une couche BLSTM à chaque bloc du transformateur, offrant ainsi un cadre de modélisation conjointe entre le transformateur et le BLSTM. Nous démontrons que les modèles TRANS-BLSTM améliorent de manière cohérente la précision par rapport aux modèles de base BERT dans les expériences sur GLUE et SQuAD 1.1. Notre modèle TRANS-BLSTM atteint un score F1 de 94,01 % sur le jeu de données de développement de SQuAD 1.1, résultat comparable aux performances les plus avancées de l’état de l’art.


Créer de l'IA avec l'IA

De l'idée au lancement — accélérez votre développement IA avec le co-codage IA gratuit, un environnement prêt à l'emploi et le meilleur prix pour les GPU.

Codage assisté par IA
GPU prêts à l’emploi
Tarifs les plus avantageux

HyperAI Newsletters

Abonnez-vous à nos dernières mises à jour
Nous vous enverrons les dernières mises à jour de la semaine dans votre boîte de réception à neuf heures chaque lundi matin
Propulsé par MailChimp