HyperAIHyperAI

Command Palette

Search for a command to run...

Vorwärtsgehen auf einem schmalen Ast: Gemeinsame Extraktion von Entitäten-Bezeichnungen und Relationen ohne Abhängigkeitsbäume

Arzoo Katiyar Claire Cardie

Zusammenfassung

Wir präsentieren ein neuartiges auf Aufmerksamkeit basierendes rekurrentes neuronales Netzwerk zur gemeinsamen Extraktion von Entitäten-Nennungen und Relationen. Wir zeigen, dass die Kombination von Aufmerksamkeit mit einem Long Short-Term Memory (LSTM)-Netzwerk semantische Relationen zwischen Entitäten-Nennungen extrahieren kann, ohne Zugriff auf Abhängigkeitsbäume zu benötigen. Experimente anhand der ACE-Korpora (Automatic Content Extraction) zeigen, dass unser Modell das von Li und Ji (2014) vorgeschlagene feature-basierte gemeinsame Modell erheblich übertrifft. Zudem vergleichen wir unser Modell mit einem end-to-end baumbasierten LSTM-Modell (SPTree) von Miwa und Bansal (2016) und zeigen, dass unser Modell eine Leistung innerhalb von 1 % bei der Extraktion von Entitäten-Nennungen und innerhalb von 2 % bei der Relationsextraktion erreicht. Eine detaillierte Analyse zeigt zudem, dass unser Modell signifikant bessere Ergebnisse bei der Erkennung von Agent-Artifact-Relationen erzielt, während SPTree bei Physical- und Part-Whole-Relationen überlegen ist.


KI mit KI entwickeln

Von der Idee bis zum Launch – beschleunigen Sie Ihre KI-Entwicklung mit kostenlosem KI-Co-Coding, sofort einsatzbereiter Umgebung und bestem GPU-Preis.

KI-gestütztes kollaboratives Programmieren
Sofort einsatzbereite GPUs
Die besten Preise

HyperAI Newsletters

Abonnieren Sie unsere neuesten Updates
Wir werden die neuesten Updates der Woche in Ihren Posteingang liefern um neun Uhr jeden Montagmorgen
Unterstützt von MailChimp
Vorwärtsgehen auf einem schmalen Ast: Gemeinsame Extraktion von Entitäten-Bezeichnungen und Relationen ohne Abhängigkeitsbäume | Paper | HyperAI