Named Entity Recognition On Species 800
Métriques
F1
Résultats
Résultats de performance de divers modèles sur ce benchmark
Tableau comparatif
Nom du modèle | F1 |
---|---|
biobert-a-pre-trained-biomedical-language | 75.31 |
improving-biomedical-named-entity-recognition | 76.33 |
scifive-a-text-to-text-transformer-model-for | 76.55 |
biomedical-named-entity-recognition-at-scale | 80.91 |
bioflair-pretrained-pooled-contextualized | 82.44 |