
要約
現在の最先端ニューラルエンティティリンクングモデルは、アテンションベースのバッグオブワードコンテキストモデルと、単語埋め込みからブートストラップされた事前学習済みエンティティ埋め込みを用いて、トピックレベルのコンテキスト適合性を評価している。しかし、参照表現の直近コンテキストに含まれる潜在的なエンティティタイプ情報が無視されているため、モデルはしばしばタイプが不適切なエンティティに参照表現をリンクしてしまう。この問題に対処するため、我々は事前学習済みBERTを基盤として、エンティティ埋め込みに潜在的なエンティティタイプ情報を組み込む手法を提案する。さらに、最先端モデルの局所的コンテキストモデルに、BERTベースのエンティティ類似度スコアを統合することで、潜在的なエンティティタイプ情報をより正確に捉えることを実現した。標準ベンチマーク(AIDA-CoNLL)における実験結果から、本モデルは最先端モデルを大きく上回る性能を示した。詳細な実験分析により、本モデルが直接ベースラインによって生成される大多数のタイプ誤りを修正できていることが明らかになった。