
要約
固有表現認識(NER)は、自然言語処理における最も研究が進んだタスクの一つです。しかし、多くのアプローチはネスト構造を扱う能力に欠けています。この論文中で、我々は新しいニューラルネットワークのアーキテクチャを提案します。このアーキテクチャはまずトークンやエンティティをエンティティに結合し、ネスト構造を形成します。その後、それぞれのエンティティを独立してラベリングします。従来の研究とは異なり、我々の結合とラベリングアプローチは離散的なセグメンテーション構造ではなく実数値のセグメンテーション構造を予測します。これにより、単語とネストエンティティの埋め込みを組み合わせることができるとともに、微分可能性を維持できます。(複数レベルにわたってエンティティをスムーズに単一のベクトルにグループ化することができます)。我々はACE 2005コーパスを使用してこのアプローチを評価しました。その結果、最新のF1スコア74.6を達成しました。さらにコンテキスト依存型埋め込み(BERT)を使用することで82.4まで向上し、同じデータで訓練された従来の手法に対して約8ポイントの全体的な改善が見られました。また、平坦なNER構造に対する主要な手法であるBiLSTM-CRFsとの比較も行いました。その結果、ネスト構造を予測する能力が単純なケースでの性能に影響を与えないことが示されました。