Mehrere Relationen in einem Durchgang mit vorab trainierten Transformatoren extrahieren

Die meisten Ansätze zur Extraktion mehrerer Beziehungen aus einem Absatz erfordern mehrere Durchläufe über den Absatz. In der Praxis sind mehrere Durchläufe rechnerisch aufwendig und erschweren die Skalierung auf längere Absätze und größere Textkorpora. In dieser Arbeit konzentrieren wir uns auf die Aufgabe der Extraktion mehrerer Beziehungen durch nur einmaliges Kodieren des Absatzes (einmaliger Durchlauf). Unser Ansatz basiert auf vortrainierten selbstaufmerksamen (Transformer-) Modellen, wobei wir zunächst eine strukturierte Vorhersageschicht hinzufügen, um die Extraktion zwischen mehreren Entitätspaaren zu verwalten. Anschließend verbessern wir die Absatzkodierung mit einer entitätsbewussten Aufmerksamkeitstechnik, um mehrere relational zugeordnete Informationen zu jeder Entität zu erfassen. Wir zeigen, dass unser Ansatz nicht nur skalierbar ist, sondern auch den aktuellen Stand der Technik in der Standard-Benchmark-Datenbank ACE 2005 erreichen kann.