Ein neuronales transitorisches Modell für die Erkennung verschachtelter Erwähnungen

Es ist üblich, dass Erwähnungen (entity mentions) andere Erwähnungen rekursiv enthalten können. In dieser Arbeit wird eine skalierbare, über Übergänge basierende Methode vorgestellt, um die verschachtelte Struktur von Erwähnungen zu modellieren. Zunächst werden Sätze mit verschachtelten Erwähnungen in einen spezifischen Wald abgebildet, wobei jede Erwähnung einem Konstituenten des Waldes entspricht. Unser shift-reduce-basiertes System lernt dann, die Struktur des Waldes durch eine Aktionenfolge bottom-up zu konstruieren, deren maximale Länge garantiert dreimal so lang wie die Satzlänge ist. Basierend auf dem Stack-LSTM, das zur effizienten und effektiven Darstellung der Systemzustände in einem kontinuierlichen Raum eingesetzt wird, wird unser System zudem mit einer zeichenbasierten Komponente erweitert, um Buchstaben-Level-Muster zu erfassen. Unser Modell erreicht state-of-the-art-Ergebnisse auf den ACE-Datensätzen und zeigt damit seine Effektivität bei der Erkennung von verschachtelten Erwähnungen.