Effektive und vielfältige Fragen stellen: Ein maschinelles Leseverstehen-basiertes Framework zur gemeinsamen Entität-Relation-Extraktion

Neuere Fortschritte stellen die Entität-Relation-Extraktion als eine Aufgabe der mehrschrittigen Fragebeantwortung (QA) dar und bieten eine effektive Lösung basierend auf Modellen für maschinelles Leseverständnis (MRC). Allerdings verwenden diese Ansätze eine einzige Frage, um die Bedeutung von Entitäten und Relationen zu charakterisieren, was aufgrund der Vielfalt kontextueller Semantik intuitiv unzureichend ist. Gleichzeitig generieren bestehende Modelle Fragen durch Aufzählung aller möglichen Relationstypen, was ineffizient ist und leicht zu verwirrenden Fragen führt. In diesem Artikel verbessern wir das bestehende MRC-basierte Modell zur Entität-Relation-Extraktion durch eine vielfältige Fragebeantwortung. Zunächst wird ein Mechanismus zur vielfältigen Fragebeantwortung eingeführt, um Entitätsabschnitte zu detektieren, und zwei Strategien zur Antwortauswahl werden entworfen, um verschiedene Antworten effektiv zu integrieren. Anschließend schlagen wir vor, eine Teilmenge potenzieller Relationen vorherzusagen und irrelevante Relationen zu filtern, um Fragen effizienter zu generieren. Schließlich werden Entitäten- und Relationsextraktion end-to-end integriert und durch gemeinsame Lernverfahren optimiert. Experimentelle Ergebnisse zeigen, dass die vorgeschlagene Methode die Baseline-Modelle deutlich übertrifft und die Relation-F1-Werte auf ACE05 auf 62,1 % (+1,9 %) und auf CoNLL04 auf 71,9 % (+3,0 %) steigert. Die Implementierung ist unter https://github.com/TanyaZhao/MRC4ERE verfügbar.