2ヶ月前

名詞エンティティ認識のためのニューラルアーキテクチャ

Guillaume Lample; Miguel Ballesteros; Sandeep Subramanian; Kazuya Kawakami; Chris Dyer
名詞エンティティ認識のためのニューラルアーキテクチャ
要約

最先端の固有表現認識システムは、効果的に学習するために、手作業で作成された特徴量や領域固有の知識に大きく依存しています。本論文では、2つの新しいニューラルアーキテクチャを紹介します。1つは双方向LSTMと条件付き随機場(Conditional Random Fields)に基づいており、もう1つはシフト-リダース構文解析器に着想を得た遷移ベースの手法を使用してセグメントを構築しラベリングするものです。私たちのモデルは、単語に関する2つの情報源に依存しています:監督コーパスから学習した文字ベースの単語表現と、非注釈コーパスから学習した非監督単語表現です。私たちのモデルは、言語固有の知識やリスト(gazetteers)などのリソースを使用せずに、4つの言語においてNER(Named Entity Recognition)で最先端の性能を達成しています。

名詞エンティティ認識のためのニューラルアーキテクチャ | 最新論文 | HyperAI超神経