HyperAI
Command Palette
Search for a command to run...
BERTを用いた共参照解消:基準モデルと分析
BERTを用いた共参照解消:基準モデルと分析
Mandar Joshi; Omer Levy; Daniel S. Weld; Luke Zettlemoyer
概要
私たちはBERTを共参照解消に適用し、OntoNotes(+3.9 F1)およびGAP(+11.5 F1)のベンチマークで大幅な改善を達成しました。モデルの予測結果に対する定性的分析では、ELMoやBERT-baseと比較して、BERT-largeが関連するが異なるエンティティ(例えば、大統領とCEO)を区別する能力において特に優れていることが示されました。しかし、文書レベルのコンテキスト、会話、および言及の言い換えモデリングに関しては、まだ改善の余地があります。私たちのコードとモデルは公開されています。