HyperAIHyperAI

Command Palette

Search for a command to run...

Mehrere Relationen in einem Durchgang mit vorab trainierten Transformatoren extrahieren

Haoyu Wang∗† Ming Tan∗† Mo Yu∗‡ Shiyu Chang‡ Dakuo Wang§ Kun Xu§ Xiaoxiao Guo‡ Saloni Potdar†

Zusammenfassung

Die meisten Ansätze zur Extraktion mehrerer Beziehungen aus einem Absatz erfordern mehrere Durchläufe über den Absatz. In der Praxis sind mehrere Durchläufe rechnerisch aufwendig und erschweren die Skalierung auf längere Absätze und größere Textkorpora. In dieser Arbeit konzentrieren wir uns auf die Aufgabe der Extraktion mehrerer Beziehungen durch nur einmaliges Kodieren des Absatzes (einmaliger Durchlauf). Unser Ansatz basiert auf vortrainierten selbstaufmerksamen (Transformer-) Modellen, wobei wir zunächst eine strukturierte Vorhersageschicht hinzufügen, um die Extraktion zwischen mehreren Entitätspaaren zu verwalten. Anschließend verbessern wir die Absatzkodierung mit einer entitätsbewussten Aufmerksamkeitstechnik, um mehrere relational zugeordnete Informationen zu jeder Entität zu erfassen. Wir zeigen, dass unser Ansatz nicht nur skalierbar ist, sondern auch den aktuellen Stand der Technik in der Standard-Benchmark-Datenbank ACE 2005 erreichen kann.


KI mit KI entwickeln

Von der Idee bis zum Launch – beschleunigen Sie Ihre KI-Entwicklung mit kostenlosem KI-Co-Coding, sofort einsatzbereiter Umgebung und bestem GPU-Preis.

KI-gestütztes kollaboratives Programmieren
Sofort einsatzbereite GPUs
Die besten Preise

HyperAI Newsletters

Abonnieren Sie unsere neuesten Updates
Wir werden die neuesten Updates der Woche in Ihren Posteingang liefern um neun Uhr jeden Montagmorgen
Unterstützt von MailChimp
Mehrere Relationen in einem Durchgang mit vorab trainierten Transformatoren extrahieren | Paper | HyperAI