
要約
私たちはBERTを基盤としたグローバルエンティティ曖昧解消(ED)モデルを提案します。このモデルは、EDのためのグローバルな文脈情報を捉えるために、単語だけでなくエンティティも入力トークンとして扱い、言及を参照エンティティに順次解決し、各ステップで解決されたエンティティを入力として使用することでタスクを解決します。私たちは、Wikipediaから得られた大規模なエンティティ注釈付きコーパスを使用してモデルを訓練しました。AIDA-CoNLL、MSNBC、AQUAINT、ACE2004、WNED-WIKIという5つの標準的なEDデータセットにおいて新しい最先端の結果を達成しました。ソースコードとモデルチェックポイントはhttps://github.com/studio-ousia/luke で利用可能です。