HyperAIHyperAI

Command Palette

Search for a command to run...

BERT für Coreference Resolution: Baselines und Analyse

Mandar Joshi; Omer Levy; Daniel S. Weld; Luke Zettlemoyer

Zusammenfassung

Wir wenden BERT auf die Coreference-Resolution an und erzielen dabei signifikante Verbesserungen bei den Benchmarks OntoNotes (+3,9 F1) und GAP (+11,5 F1). Eine qualitative Analyse der Modellvorhersagen zeigt, dass BERT-large im Vergleich zu ELMo und BERT-base besonders gut darin ist, verwandte aber voneinander getrennte Entitäten (z.B. Präsident und CEO) zu unterscheiden. Dennoch gibt es noch Verbesserungspotenzial beim Modellieren von Dokumentenkontext, Konversationen und Paraphrasierungen von Erwähnungen. Unser Code und unsere Modelle sind öffentlich zugänglich.


KI mit KI entwickeln

Von der Idee bis zum Launch – beschleunigen Sie Ihre KI-Entwicklung mit kostenlosem KI-Co-Coding, sofort einsatzbereiter Umgebung und bestem GPU-Preis.

KI-gestütztes kollaboratives Programmieren
Sofort einsatzbereite GPUs
Die besten Preise

HyperAI Newsletters

Abonnieren Sie unsere neuesten Updates
Wir werden die neuesten Updates der Woche in Ihren Posteingang liefern um neun Uhr jeden Montagmorgen
Unterstützt von MailChimp
BERT für Coreference Resolution: Baselines und Analyse | Paper | HyperAI