HyperAIHyperAI
il y a 2 mois

BERT pour la résolution de co-référence : lignes de base et analyse

Mandar Joshi; Omer Levy; Daniel S. Weld; Luke Zettlemoyer
BERT pour la résolution de co-référence : lignes de base et analyse
Résumé

Nous appliquons BERT à la résolution de co-référence, réalisant des améliorations significatives sur les benchmarks OntoNotes (+3,9 F1) et GAP (+11,5 F1). Une analyse qualitative des prédictions du modèle indique que, par rapport à ELMo et BERT-base, BERT-large est particulièrement meilleur pour distinguer entre des entités liées mais distinctes (par exemple, Président et PDG). Cependant, il reste encore de la marge d'amélioration dans le modélisation du contexte au niveau du document, des conversations et de la paraphrase des mentions. Notre code et nos modèles sont disponibles publiquement.

BERT pour la résolution de co-référence : lignes de base et analyse | Articles de recherche récents | HyperAI