HyperAIHyperAI
vor 2 Monaten

BERT für Coreference Resolution: Baselines und Analyse

Mandar Joshi; Omer Levy; Daniel S. Weld; Luke Zettlemoyer
BERT für Coreference Resolution: Baselines und Analyse
Abstract

Wir wenden BERT auf die Coreference-Resolution an und erzielen dabei signifikante Verbesserungen bei den Benchmarks OntoNotes (+3,9 F1) und GAP (+11,5 F1). Eine qualitative Analyse der Modellvorhersagen zeigt, dass BERT-large im Vergleich zu ELMo und BERT-base besonders gut darin ist, verwandte aber voneinander getrennte Entitäten (z.B. Präsident und CEO) zu unterscheiden. Dennoch gibt es noch Verbesserungspotenzial beim Modellieren von Dokumentenkontext, Konversationen und Paraphrasierungen von Erwähnungen. Unser Code und unsere Modelle sind öffentlich zugänglich.

BERT für Coreference Resolution: Baselines und Analyse | Neueste Forschungsarbeiten | HyperAI