HyperAIHyperAI

Command Palette

Search for a command to run...

Empirische Evaluierung von Pretraining-Strategien für überwachtes Entitäten-Linking

Thibault Févry Nicholas FitzGerald Livio Baldini Soares Tom Kwiatkowski

Zusammenfassung

In dieser Arbeit präsentieren wir ein Entity-Linking-Modell, das eine Transformer-Architektur mit großskaligem Vortrainieren anhand von Wikipedia-Verweisen kombiniert. Unser Modell erreicht den Stand der Technik auf zwei häufig verwendeten Entity-Linking-Datensätzen: 96,7 % auf CoNLL und 94,9 % auf TAC-KBP. Wir führen detaillierte Analysen durch, um zu verstehen, welche Gestaltungsentscheidungen für das Entity-Linking entscheidend sind, darunter die Auswahl negativer Entity-Kandidaten, die Wahl der Transformer-Architektur sowie Eingabestörungen. Abschließend präsentieren wir vielversprechende Ergebnisse für anspruchsvollere Szenarien, wie beispielsweise End-to-End-Entity-Linking und Entity-Linking ohne Trainingsdaten aus dem jeweiligen Domänenbereich.


KI mit KI entwickeln

Von der Idee bis zum Launch – beschleunigen Sie Ihre KI-Entwicklung mit kostenlosem KI-Co-Coding, sofort einsatzbereiter Umgebung und bestem GPU-Preis.

KI-gestütztes kollaboratives Programmieren
Sofort einsatzbereite GPUs
Die besten Preise

HyperAI Newsletters

Abonnieren Sie unsere neuesten Updates
Wir werden die neuesten Updates der Woche in Ihren Posteingang liefern um neun Uhr jeden Montagmorgen
Unterstützt von MailChimp