Ein frustrierend einfacher Ansatz für die Entität- und Relationsextraktion

End-to-end-Relationsextraktion zielt darauf ab, benannte Entitäten zu identifizieren und Beziehungen zwischen ihnen zu extrahieren. Die meisten aktuellen Ansätze modellieren diese beiden Teilprozesse gemeinsam, entweder durch eine strukturierte Vorhersage-Formulierung in einem einzigen Rahmenwerk oder durch Multi-Task-Lernen mittels geteilter Darstellungen. In dieser Arbeit präsentieren wir einen einfachen, kaskadierten Ansatz für die Entitäten- und Relationsextraktion und erreichen damit eine neue state-of-the-art-Leistung auf etablierten Benchmark-Datensätzen (ACE04, ACE05 und SciERC), wobei wir eine absolute Verbesserung der Relation-F1 um 1,7 % bis 2,8 % gegenüber früheren gemeinsamen Modellen mit denselben vortrainierten Encodern erzielen. Unser Ansatz basiert im Wesentlichen auf zwei unabhängigen Encodern und nutzt lediglich das Entitätenmodell, um die Eingabedaten für das Relationmodell zu konstruieren. Durch eine Reihe sorgfältiger Untersuchungen bestätigen wir die Bedeutung der Lernung unterschiedlicher kontextueller Darstellungen für Entitäten und Relationen, die frühe Fusion von Entitäteninformationen im Relationmodell sowie die Einbeziehung globalen Kontexts. Schließlich stellen wir auch eine effiziente Approximation unseres Ansatzes vor, die lediglich einen Durchlauf beider Encodern während der Inferenz erfordert und dabei eine Geschwindigkeitssteigerung um den Faktor 8 bis 16 ermöglicht, wobei die Genauigkeit nur geringfügig abnimmt.