HyperAIHyperAI

Command Palette

Search for a command to run...

Merge and Label: ネストされたNERのための新しいニューラルネットワークアーキテクチャ

Joseph Fisher Andreas Vlachos

概要

固有表現認識(NER)は、自然言語処理における最も研究が進んだタスクの一つです。しかし、多くのアプローチはネスト構造を扱う能力に欠けています。この論文中で、我々は新しいニューラルネットワークのアーキテクチャを提案します。このアーキテクチャはまずトークンやエンティティをエンティティに結合し、ネスト構造を形成します。その後、それぞれのエンティティを独立してラベリングします。従来の研究とは異なり、我々の結合とラベリングアプローチは離散的なセグメンテーション構造ではなく実数値のセグメンテーション構造を予測します。これにより、単語とネストエンティティの埋め込みを組み合わせることができるとともに、微分可能性を維持できます。(複数レベルにわたってエンティティをスムーズに単一のベクトルにグループ化することができます)。我々はACE 2005コーパスを使用してこのアプローチを評価しました。その結果、最新のF1スコア74.6を達成しました。さらにコンテキスト依存型埋め込み(BERT)を使用することで82.4まで向上し、同じデータで訓練された従来の手法に対して約8ポイントの全体的な改善が見られました。また、平坦なNER構造に対する主要な手法であるBiLSTM-CRFsとの比較も行いました。その結果、ネスト構造を予測する能力が単純なケースでの性能に影響を与えないことが示されました。


AIでAIを構築

アイデアからローンチまで — 無料のAIコーディング支援、すぐに使える環境、最高のGPU価格でAI開発を加速。

AI コーディング補助
すぐに使える GPU
最適な料金体系

HyperAI Newsletters

最新情報を購読する
北京時間 毎週月曜日の午前9時 に、その週の最新情報をメールでお届けします
メール配信サービスは MailChimp によって提供されています
Merge and Label: ネストされたNERのための新しいニューラルネットワークアーキテクチャ | 記事 | HyperAI超神経