2ヶ月前
単一の名詞認識を単語-単語関係分類として統一する
Jingye Li; Hao Fei; Jiang Liu; Shengqiong Wu; Meishan Zhang; Chong Teng; Donghong Ji; Fei Li

要約
これまで、固有表現認識(Named Entity Recognition: NER)は、フラット、重複(別名:ネストされた)、および非連続的なNERの3つの主要なタイプに関連してきました。これらのタイプは主に個別に研究されてきましたが、最近では統一型NERに対する関心が高まっています。これは、単一のモデルで上記の3つのタスクを同時に処理することを目指しています。現在の最高性能の手法には、スパンベースとシーケンス・ツー・シーケンスモデルが主に含まれています。しかしながら、前者は境界識別の焦点を絞るのみであり、後者は露出バイアスに悩まされる可能性があります。本研究では、統一型NERを単語-単語関係分類としてモデル化する新しい代替案を提案します。これをW^2NERと呼びます。このアーキテクチャは、Next-Neighboring-Word (NNW) および Tail-Head-Word- (THW-) 関係を使用して、エンティティ単語間の隣接関係を効果的にモデル化することで、統一型NERの核心的なボトルネックを解決します。W^2NERスキームに基づいて、統一型NERを単語ペアの2次元グリッドとしてモデル化するニューラルフレームワークを開発しました。さらに、グリッド表現をより精緻に改良するために多粒度2次元畳み込みを提案します。最後に、共予測器を使用して単語-単語関係を十分に推論します。我々は14個の広く使用されているベンチマークデータセット(8つの英語データセットと6つの中国語データセット)でフラット、重複、および非連続的なNERに関する広範な実験を行いました。その結果、我々のモデルはすべての現行最高峰のベースラインを超えており、統一型NERにおける最先端性能を更新しています。