Neuronale Relationsextraktion innerhalb und über Satzgrenzen hinweg

Frühere Arbeiten im Bereich der Relationsextraktion konzentrierten sich hauptsächlich auf binäre Beziehungen zwischen Entitätspaaren innerhalb eines einzelnen Satzes. Kürzlich hat die NLP-Gemeinschaft jedoch ein großes Interesse an der Relationsextraktion von Entitätspaaren gezeigt, die über mehrere Sätze hinweg verteilt sind. In dieser Arbeit schlagen wir eine neue Architektur für diese Aufgabe vor: intersentenziale abhängigkeitsbasierte neuronale Netze (iDepNN). iDepNN modelliert die kürzesten und erweiterten Abhängigkeitspfade durch rekurrente und rekursive neuronale Netze, um Beziehungen sowohl innerhalb (intrasentenzial) als auch über (intersentenzial) Satzgrenzen hinweg zu extrahieren. Im Vergleich zu SVM- und neuronalen Netzwerkbaselines ist iDepNN robuster gegenüber Fehlern bei Beziehungen, die über mehrere Sätze hinweg reichen.Wir evaluieren unsere Modelle anhand von vier Datensätzen aus den Bereichen Nachrichtendienste (MUC6) und Medizinformatik (BioNLP Shared Task), bei denen sie den Stand der Technik erreichen und ein besseres Gleichgewicht zwischen Präzision und Recall für intersentenziale Beziehungen zeigen. Wir erzielen bessere Ergebnisse als 11 Teams, die am BioNLP Shared Task 2016 teilnahmen, und erreichen einen Vorteil von 5,2 % (0,587 im Vergleich zu 0,558) im F1-Score gegenüber dem Sieger-Team. Zudem veröffentlichen wir die intersentenzialen Annotationen für MUC6.