HyperAIHyperAI

Command Palette

Search for a command to run...

BERTを用いた共参照解消:基準モデルと分析

Mandar Joshi; Omer Levy; Daniel S. Weld; Luke Zettlemoyer

概要

私たちはBERTを共参照解消に適用し、OntoNotes(+3.9 F1)およびGAP(+11.5 F1)のベンチマークで大幅な改善を達成しました。モデルの予測結果に対する定性的分析では、ELMoやBERT-baseと比較して、BERT-largeが関連するが異なるエンティティ(例えば、大統領とCEO)を区別する能力において特に優れていることが示されました。しかし、文書レベルのコンテキスト、会話、および言及の言い換えモデリングに関しては、まだ改善の余地があります。私たちのコードとモデルは公開されています。


AIでAIを構築

アイデアからローンチまで — 無料のAIコーディング支援、すぐに使える環境、最高のGPU価格でAI開発を加速。

AI コーディング補助
すぐに使える GPU
最適な料金体系

HyperAI Newsletters

最新情報を購読する
北京時間 毎週月曜日の午前9時 に、その週の最新情報をメールでお届けします
メール配信サービスは MailChimp によって提供されています