Vorwärtsgehen auf einem schmalen Ast: Gemeinsame Extraktion von Entitäten-Bezeichnungen und Relationen ohne Abhängigkeitsbäume

Wir präsentieren ein neuartiges auf Aufmerksamkeit basierendes rekurrentes neuronales Netzwerk zur gemeinsamen Extraktion von Entitäten-Nennungen und Relationen. Wir zeigen, dass die Kombination von Aufmerksamkeit mit einem Long Short-Term Memory (LSTM)-Netzwerk semantische Relationen zwischen Entitäten-Nennungen extrahieren kann, ohne Zugriff auf Abhängigkeitsbäume zu benötigen. Experimente anhand der ACE-Korpora (Automatic Content Extraction) zeigen, dass unser Modell das von Li und Ji (2014) vorgeschlagene feature-basierte gemeinsame Modell erheblich übertrifft. Zudem vergleichen wir unser Modell mit einem end-to-end baumbasierten LSTM-Modell (SPTree) von Miwa und Bansal (2016) und zeigen, dass unser Modell eine Leistung innerhalb von 1 % bei der Extraktion von Entitäten-Nennungen und innerhalb von 2 % bei der Relationsextraktion erreicht. Eine detaillierte Analyse zeigt zudem, dass unser Modell signifikant bessere Ergebnisse bei der Erkennung von Agent-Artifact-Relationen erzielt, während SPTree bei Physical- und Part-Whole-Relationen überlegen ist.