HyperAIHyperAI
vor 17 Tagen

Verbesserung der Entitätenverknüpfung durch Modellierung latenter Entitätstypinformationen

Shuang Chen, Jinpeng Wang, Feng Jiang, Chin-Yew Lin
Verbesserung der Entitätenverknüpfung durch Modellierung latenter Entitätstypinformationen
Abstract

Bestehende State-of-the-Art-Neural-Entity-Linking-Modelle nutzen ein auf Aufmerksamkeit basierendes Bag-of-Words-Kontextmodell sowie vortrainierte Entitäts-Embeddings, die aus Wort-Embeddings abgeleitet wurden, um die Themen-Ebene-Kompatibilität zu bewerten. Dabei wird jedoch die latente Entitätstyp-Information im unmittelbaren Kontext des Erwähnungs-Textes vernachlässigt, was dazu führt, dass die Modelle Erwähnungen häufig falsch auf Entitäten mit falschem Typ verknüpfen. Um dieses Problem anzugehen, schlagen wir vor, latente Entitätstyp-Informationen basierend auf vortrainiertem BERT in die Entitäts-Embeddings einzubetten. Zudem integrieren wir eine BERT-basierte Ähnlichkeitsmetrik für Entitäten in das lokale Kontextmodell eines State-of-the-Art-Modells, um die latente Entitätstyp-Information besser zu erfassen. Unser Modell übertrifft die State-of-the-Art-Entity-Linking-Modelle erheblich auf Standard-Benchmark-Daten (AIDA-CoNLL). Eine detaillierte Experimentanalyse zeigt, dass unser Modell die meisten vom direkten Baseline erzeugten Typ-Fehler korrigiert.

Verbesserung der Entitätenverknüpfung durch Modellierung latenter Entitätstypinformationen | Neueste Forschungsarbeiten | HyperAI