Empirische Evaluierung von Pretraining-Strategien für überwachtes Entitäten-Linking

In dieser Arbeit präsentieren wir ein Entity-Linking-Modell, das eine Transformer-Architektur mit großskaligem Vortrainieren anhand von Wikipedia-Verweisen kombiniert. Unser Modell erreicht den Stand der Technik auf zwei häufig verwendeten Entity-Linking-Datensätzen: 96,7 % auf CoNLL und 94,9 % auf TAC-KBP. Wir führen detaillierte Analysen durch, um zu verstehen, welche Gestaltungsentscheidungen für das Entity-Linking entscheidend sind, darunter die Auswahl negativer Entity-Kandidaten, die Wahl der Transformer-Architektur sowie Eingabestörungen. Abschließend präsentieren wir vielversprechende Ergebnisse für anspruchsvollere Szenarien, wie beispielsweise End-to-End-Entity-Linking und Entity-Linking ohne Trainingsdaten aus dem jeweiligen Domänenbereich.