HyperAIHyperAI
vor 17 Tagen

Lernen von Logikregeln für die dokumentweite Relationsextraktion

Dongyu Ru, Changzhi Sun, Jiangtao Feng, Lin Qiu, Hao Zhou, Weinan Zhang, Yong Yu, Lei Li
Lernen von Logikregeln für die dokumentweite Relationsextraktion
Abstract

Die Dokumentebene-Relationsextraktion zielt darauf ab, Beziehungen zwischen Entitäten innerhalb eines gesamten Dokuments zu identifizieren. Frühere Ansätze zur Erfassung von langen Abständen (long-range dependencies) beruhten stark auf implizit leistungsstarken Darstellungen, die durch (Graph-)Neuronale Netzwerke erlernt wurden, was die Modelltransparenz beeinträchtigt. Um diese Herausforderung anzugehen, stellen wir in diesem Paper LogiRE vor – ein neuartiges probabilistisches Modell für die Dokumentebene-Relationsextraktion, das Logikregeln lernt. LogiRE behandelt Logikregeln als latente Variablen und besteht aus zwei Modulen: einem Regelgenerator und einem Relationsextraktor. Der Regelgenerator generiert potenziell zur endgültigen Vorhersage beitragende Logikregeln, während der Relationsextraktor die endgültigen Vorhersagen auf Basis der generierten Logikregeln erzeugt. Beide Module können effizient mit dem Erwartung-Maximierungsalgorithmus (EM) optimiert werden. Durch die Integration von Logikregeln in neuronale Netzwerke kann LogiRE langreichweitige Abhängigkeiten explizit erfassen und gleichzeitig eine bessere Interpretierbarkeit bieten. Empirische Ergebnisse zeigen, dass LogiRE mehrere starke Baselines hinsichtlich der Relationsextraktionsleistung (1,8 F1-Score) und logischen Konsistenz (über 3,3 Logik-Score) deutlich übertrifft. Unser Code ist unter https://github.com/rudongyu/LogiRE verfügbar.