HyperAIHyperAI

Command Palette

Search for a command to run...

Ein neuronales transitorisches Modell für die Erkennung verschachtelter Erwähnungen

Bailin Wang Wei Lu Yu Wang Hongxia Jin

Zusammenfassung

Es ist üblich, dass Erwähnungen (entity mentions) andere Erwähnungen rekursiv enthalten können. In dieser Arbeit wird eine skalierbare, über Übergänge basierende Methode vorgestellt, um die verschachtelte Struktur von Erwähnungen zu modellieren. Zunächst werden Sätze mit verschachtelten Erwähnungen in einen spezifischen Wald abgebildet, wobei jede Erwähnung einem Konstituenten des Waldes entspricht. Unser shift-reduce-basiertes System lernt dann, die Struktur des Waldes durch eine Aktionenfolge bottom-up zu konstruieren, deren maximale Länge garantiert dreimal so lang wie die Satzlänge ist. Basierend auf dem Stack-LSTM, das zur effizienten und effektiven Darstellung der Systemzustände in einem kontinuierlichen Raum eingesetzt wird, wird unser System zudem mit einer zeichenbasierten Komponente erweitert, um Buchstaben-Level-Muster zu erfassen. Unser Modell erreicht state-of-the-art-Ergebnisse auf den ACE-Datensätzen und zeigt damit seine Effektivität bei der Erkennung von verschachtelten Erwähnungen.


KI mit KI entwickeln

Von der Idee bis zum Launch – beschleunigen Sie Ihre KI-Entwicklung mit kostenlosem KI-Co-Coding, sofort einsatzbereiter Umgebung und bestem GPU-Preis.

KI-gestütztes kollaboratives Programmieren
Sofort einsatzbereite GPUs
Die besten Preise

HyperAI Newsletters

Abonnieren Sie unsere neuesten Updates
Wir werden die neuesten Updates der Woche in Ihren Posteingang liefern um neun Uhr jeden Montagmorgen
Unterstützt von MailChimp