HyperAIHyperAI
vor 2 Monaten

Neuronale Relationsextraktion durch Reduktion des inneren Satzrauschens und Transferlearning

Tianyi Liu; Xinsong Zhang; Wanhao Zhou; Weijia Jia
Neuronale Relationsextraktion durch Reduktion des inneren Satzrauschens und Transferlearning
Abstract

Die Extraktion von Beziehungen ist entscheidend für die Vervollständigung und den Aufbau von Wissensbasen, wobei distantsupervisierte Methoden häufig verwendet werden, um relational faktische Informationen automatisch aus bestehenden Wissensbasen zu extrahieren. Allerdings enthalten die automatisch erstellten Datensätze eine große Anzahl an Sätzen niedriger Qualität, die störende Wörter beinhalten. Dieses Problem wird von aktuellen distantsupervisierten Methoden vernachlässigt, was zu unakzeptablen Präzisionen führt. Um dieses Problem zu mindern, schlagen wir einen neuen wortbasierten distantsupervisierten Ansatz zur Beziehungsextraktion vor. Zunächst bauen wir eine Unterbaumanalyse (Sub-Tree Parse, STP) auf, um störende Wörter zu entfernen, die nicht mit den Beziehungen zusammenhängen. Anschließend konstruieren wir ein neuronales Netzwerk, das den Unterbaum als Eingabe erhält und dabei die entitätsbezogene Aufmerksamkeit anwendet, um die wichtigen semantischen Merkmale der relationalen Wörter in jeder Instanz zu identifizieren. Um unser Modell robuster gegenüber störenden Wörtern zu machen, initialisieren wir unser Netzwerk mit a-priori-Wissen, das durch Transfer-Lernen aus der verwandten Aufgabe der Entitätsklassifizierung gewonnen wurde. Wir führen umfangreiche Experimente mit den Korpora des New York Times (NYT) und Freebase durch. Die Experimente zeigen, dass unser Ansatz effektiv ist und den Bereich Präzision/Recall (PR) im Vergleich zum Stand der Technik von 0,35 auf 0,39 verbessert.

Neuronale Relationsextraktion durch Reduktion des inneren Satzrauschens und Transferlearning | Neueste Forschungsarbeiten | HyperAI