Command Palette
Search for a command to run...
恥ずかしいほど簡単だが強力なベースラインのネストされた固有表現認識
恥ずかしいほど簡単だが強力なベースラインのネストされた固有表現認識
Hang Yan Yu Sun Xiaonan Li Xipeng Qiu
概要
固有表現認識(Named Entity Recognition, NER)は、テキスト中のエンティティ範囲を検出および分類するタスクである。エンティティ範囲が互いに重複する場合、この問題はネストされたNERと呼ばれる。スパンベースの手法がネストされたNERの解決に広く使用されてきた。これらの手法の多くは、n×nのスコア行列を得る方法を使用しており、ここでnは文章の長さを表し、各エントリはスパンに対応している。しかし、これまでの研究ではスコア行列内の空間関係が無視されてきた。本論文では、これらの空間関係をモデル化するために畳み込みニューラルネットワーク(Convolutional Neural Network, CNN)の使用を提案する。単純な手法であるにもかかわらず、3つの一般的に使用されるネストされたNERデータセットでの実験結果は、当モデルが同じ事前学習エンコーダを使用した最近提案されたいくつかの手法を上回ることを示している。さらに分析した結果、CNNを使用することでモデルがより多くのネストされたエンティティを見つけることができるということが明らかになった。また、異なる論文で3つのネストされたNERデータセットに対して異なる文章トークナイゼーションが使用されていることを発見し、これが比較に影響を与える可能性があることがわかった。そこで、将来の比較を容易にするために前処理スクリプトを公開することとした。