HyperAIHyperAI

Command Palette

Search for a command to run...

Neuronale Architekturen für geschachteltes NER durch Linearisierung

Jana Straková; Milan Straka; Jan Hajič

Zusammenfassung

Wir schlagen zwei neuronale Netzwerkarchitekturen für die verschachtelte Named Entity Recognition (NER) vor, einem Szenario, in dem benannte Entitäten überlappen und auch mit mehr als einem Label versehen werden können. Die verschachtelten Labels werden mittels eines linearisierten Schemas kodiert. In unserem ersten vorgeschlagenen Ansatz werden die verschachtelten Labels als Multilabels modelliert, die dem kartesischen Produkt der verschachtelten Labels in einer standardmäßigen LSTM-CRF-Architektur entsprechen. Im zweiten Ansatz wird das Problem der verschachtelten NER als Sequenz-zu-Sequenz-Problematik betrachtet, bei der die Eingabesequenz aus den Token besteht und die Ausgabesequenz aus den Labels, wobei eine harte Aufmerksamkeit auf das Wort gerichtet ist, dessen Label vorhergesagt wird. Die vorgeschlagenen Methoden übertreffen den aktuellen Stand der Technik in der verschachtelten NER auf vier Korpora: ACE-2004, ACE-2005, GENIA und tschechisches CNEC. Zudem bereichern wir unsere Architekturen mit kürzlich veröffentlichten kontextuellen Einbettungen: ELMo, BERT und Flair, was zu weiteren Verbesserungen für die vier Korpora mit verschachtelten Entitäten führt. Darüber hinaus geben wir State-of-the-Art-Ergebnisse für flache NER im CoNLL-2002-Niederländisch und -Spanisch sowie im CoNLL-2003-Englisch an.


KI mit KI entwickeln

Von der Idee bis zum Launch – beschleunigen Sie Ihre KI-Entwicklung mit kostenlosem KI-Co-Coding, sofort einsatzbereiter Umgebung und bestem GPU-Preis.

KI-gestütztes kollaboratives Programmieren
Sofort einsatzbereite GPUs
Die besten Preise

HyperAI Newsletters

Abonnieren Sie unsere neuesten Updates
Wir werden die neuesten Updates der Woche in Ihren Posteingang liefern um neun Uhr jeden Montagmorgen
Unterstützt von MailChimp