Named Entity Recognition On Dwie
Métriques
F1-Hard
Résultats
Résultats de performance de divers modèles sur ce benchmark
Tableau comparatif
Nom du modèle | F1-Hard |
---|---|
dwie-an-entity-centric-dataset-for-multi-task | 74.8 |
rexel-an-end-to-end-model-for-document-level | 90.59 |
injecting-knowledge-base-information-into-end | 75.0 |