Effiziente Extraktion langstreckiger Relationen mit DG-SpanBERT

In der natürlichen Sprachverarbeitung zielt die Relationsextraktion darauf ab, unstrukturierten Text rationell zu verstehen. Hierbei stellen wir ein neuartiges, auf SpanBERT basierendes Graphen-Convolutional-Network (DG-SpanBERT) vor, das semantische Merkmale aus einem rohen Satz mithilfe des vortrainierten Sprachmodells SpanBERT und eines Graphen-Convolutional-Networks zur Pooling latenter Merkmale extrahiert. Unser DG-SpanBERT-Modell erbt den Vorteil von SpanBERT, reichhaltige lexikalische Merkmale aus großen Korpora zu lernen. Zudem verfügt es über die Fähigkeit, langreichweitige Beziehungen zwischen Entitäten zu erfassen, was auf die Nutzung des GCN auf der Abhängigkeitsbaumstruktur zurückzuführen ist. Die experimentellen Ergebnisse zeigen, dass unser Modell andere bestehende abhängigkeitsbasierte und sequenzbasierte Modelle übertrifft und eine state-of-the-art-Leistung auf dem TACRED-Datensatz erzielt.