HyperAIHyperAI

Command Palette

Search for a command to run...

Span-basierte gemeinsame Entität- und Relationsextraktion mit Transformer-Vortrainierung

Markus Eberts Adrian Ulges

Zusammenfassung

Wir stellen SpERT vor, ein Aufmerksamkeitsmodell für die spanbasierte gemeinsame Entitäten- und Relationsextraktion. Unser zentraler Beitrag ist eine leichtgewichtige Inferenz auf BERT-Embeddings, die Entitätenerkennung und -Filterung sowie Relationsklassifikation mit einer lokalisierten, markenfreien Kontextrepräsentation umfasst. Das Modell wird mit starken negativen Beispielen innerhalb von Sätzen trainiert, die effizient in einem einzigen BERT-Durchlauf extrahiert werden. Diese Aspekte ermöglichen eine umfassende Suche über alle Spannen im Satz. In Ablationsstudien zeigen wir die Vorteile der Vortrainierung, starker negatives Sampling sowie lokalisierten Kontext. Unser Modell erreicht auf mehreren Datensätzen für die gemeinsame Entitäten- und Relationsextraktion bis zu 2,6 Prozentpunkte höhere F1-Scores im Vergleich zu vorherigen Ansätzen.


KI mit KI entwickeln

Von der Idee bis zum Launch – beschleunigen Sie Ihre KI-Entwicklung mit kostenlosem KI-Co-Coding, sofort einsatzbereiter Umgebung und bestem GPU-Preis.

KI-gestütztes kollaboratives Programmieren
Sofort einsatzbereite GPUs
Die besten Preise

HyperAI Newsletters

Abonnieren Sie unsere neuesten Updates
Wir werden die neuesten Updates der Woche in Ihren Posteingang liefern um neun Uhr jeden Montagmorgen
Unterstützt von MailChimp