Bessere Merkmalsintegration für die Erkennung benannter Entitäten

Es wurde gezeigt, dass die Erkennung benannter Entitäten (Named Entity Recognition, NER) von der Einbeziehung strukturierter, langreichweiter Informationen profitieren kann, die durch Abhängigkeitsbäume erfasst werden. Wir vermuten, dass dies darauf zurückzuführen ist, dass beide Merkmalsarten – die kontextuelle Information, die durch lineare Sequenzen erfasst wird, und die strukturierte Information, die durch Abhängigkeitsbäume erfasst wird – sich gegenseitig ergänzen können. Bestehende Ansätze konzentrieren sich jedoch weitgehend auf die Kombination von LSTMs und Graph-Neural-Networks wie Graph Convolutional Networks (GCNs), um verbesserte NER-Modelle zu entwickeln. Dabei bleibt die genaue Interaktionsmechanik zwischen den beiden Merkmalsarten unklar, und die Leistungssteigerung ist nicht besonders ausgeprägt. In dieser Arbeit stellen wir eine einfache und robuste Lösung vor, die beide Merkmalsarten mit unserem Synergized-LSTM (Syn-LSTM) integriert und klar aufzeigt, wie die beiden Merkmalsarten miteinander interagieren. Wir führen umfangreiche Experimente auf mehreren Standarddatensätzen in vier Sprachen durch. Die Ergebnisse zeigen, dass das vorgeschlagene Modell gegenüber früheren Ansätzen eine bessere Leistung erzielt, gleichzeitig jedoch weniger Parameter erfordert. Eine weitere Analyse belegt, dass unser Modell gegenüber starken Baselines längere Abhängigkeiten besser erfassen kann.