HyperAIHyperAI

Command Palette

Search for a command to run...

Saama Research à MEDIQA 2019 : BioBERT pré-entraîné avec visualisation d'attention pour l'inférence sémantique en langage naturel médical

Suriyadeepan Ramamoorthy Soham Chatterjee Malaikannan Sankarasubbu Kamal raj Kanakarajan Vaidheeswaran Archana

Résumé

L'inférence sur le langage naturel consiste à identifier la relation entre deux phrases, classée comme implication, contradiction ou neutralité. MedNLI est une variante biomédicale de l'inférence sur le langage naturel, spécifiquement conçue pour le domaine clinique. Ce papier explore l'utilisation du modèle Bidirectional Encoder Representations from Transformers (BERT) pour résoudre le jeu de données MedNLI. Le modèle proposé, pré-entraîné sur PMC et PubMed, puis finement ajusté sur MIMIC-III v1.4, atteint des résultats de pointe sur MedNLI (83,45 %) ainsi qu'une précision de 78,5 % lors du défi MEDIQA. Les auteurs présentent une analyse des motifs d'attention apparus après l'entraînement de BERT sur MedNLI, réalisée à l'aide d'un outil de visualisation appelé bertviz.


Créer de l'IA avec l'IA

De l'idée au lancement — accélérez votre développement IA avec le co-codage IA gratuit, un environnement prêt à l'emploi et le meilleur prix pour les GPU.

Codage assisté par IA
GPU prêts à l’emploi
Tarifs les plus avantageux

HyperAI Newsletters

Abonnez-vous à nos dernières mises à jour
Nous vous enverrons les dernières mises à jour de la semaine dans votre boîte de réception à neuf heures chaque lundi matin
Propulsé par MailChimp