vor 2 Monaten
BERT für Coreference Resolution: Baselines und Analyse
Mandar Joshi; Omer Levy; Daniel S. Weld; Luke Zettlemoyer

Abstract
Wir wenden BERT auf die Coreference-Resolution an und erzielen dabei signifikante Verbesserungen bei den Benchmarks OntoNotes (+3,9 F1) und GAP (+11,5 F1). Eine qualitative Analyse der Modellvorhersagen zeigt, dass BERT-large im Vergleich zu ELMo und BERT-base besonders gut darin ist, verwandte aber voneinander getrennte Entitäten (z.B. Präsident und CEO) zu unterscheiden. Dennoch gibt es noch Verbesserungspotenzial beim Modellieren von Dokumentenkontext, Konversationen und Paraphrasierungen von Erwähnungen. Unser Code und unsere Modelle sind öffentlich zugänglich.