HyperAIHyperAI
vor 2 Monaten

Neuronale Architekturen für geschachteltes NER durch Linearisierung

Jana Straková; Milan Straka; Jan Hajič
Neuronale Architekturen für geschachteltes NER durch Linearisierung
Abstract

Wir schlagen zwei neuronale Netzwerkarchitekturen für die verschachtelte Named Entity Recognition (NER) vor, einem Szenario, in dem benannte Entitäten überlappen und auch mit mehr als einem Label versehen werden können. Die verschachtelten Labels werden mittels eines linearisierten Schemas kodiert. In unserem ersten vorgeschlagenen Ansatz werden die verschachtelten Labels als Multilabels modelliert, die dem kartesischen Produkt der verschachtelten Labels in einer standardmäßigen LSTM-CRF-Architektur entsprechen. Im zweiten Ansatz wird das Problem der verschachtelten NER als Sequenz-zu-Sequenz-Problematik betrachtet, bei der die Eingabesequenz aus den Token besteht und die Ausgabesequenz aus den Labels, wobei eine harte Aufmerksamkeit auf das Wort gerichtet ist, dessen Label vorhergesagt wird. Die vorgeschlagenen Methoden übertreffen den aktuellen Stand der Technik in der verschachtelten NER auf vier Korpora: ACE-2004, ACE-2005, GENIA und tschechisches CNEC. Zudem bereichern wir unsere Architekturen mit kürzlich veröffentlichten kontextuellen Einbettungen: ELMo, BERT und Flair, was zu weiteren Verbesserungen für die vier Korpora mit verschachtelten Entitäten führt. Darüber hinaus geben wir State-of-the-Art-Ergebnisse für flache NER im CoNLL-2002-Niederländisch und -Spanisch sowie im CoNLL-2003-Englisch an.

Neuronale Architekturen für geschachteltes NER durch Linearisierung | Neueste Forschungsarbeiten | HyperAI