HyperAIHyperAI

Command Palette

Search for a command to run...

Verbesserung der Entitätenverknüpfung durch Modellierung latenter Entitätstypinformationen

Shuang Chen Jinpeng Wang Feng Jiang Chin-Yew Lin

Zusammenfassung

Bestehende State-of-the-Art-Neural-Entity-Linking-Modelle nutzen ein auf Aufmerksamkeit basierendes Bag-of-Words-Kontextmodell sowie vortrainierte Entitäts-Embeddings, die aus Wort-Embeddings abgeleitet wurden, um die Themen-Ebene-Kompatibilität zu bewerten. Dabei wird jedoch die latente Entitätstyp-Information im unmittelbaren Kontext des Erwähnungs-Textes vernachlässigt, was dazu führt, dass die Modelle Erwähnungen häufig falsch auf Entitäten mit falschem Typ verknüpfen. Um dieses Problem anzugehen, schlagen wir vor, latente Entitätstyp-Informationen basierend auf vortrainiertem BERT in die Entitäts-Embeddings einzubetten. Zudem integrieren wir eine BERT-basierte Ähnlichkeitsmetrik für Entitäten in das lokale Kontextmodell eines State-of-the-Art-Modells, um die latente Entitätstyp-Information besser zu erfassen. Unser Modell übertrifft die State-of-the-Art-Entity-Linking-Modelle erheblich auf Standard-Benchmark-Daten (AIDA-CoNLL). Eine detaillierte Experimentanalyse zeigt, dass unser Modell die meisten vom direkten Baseline erzeugten Typ-Fehler korrigiert.


KI mit KI entwickeln

Von der Idee bis zum Launch – beschleunigen Sie Ihre KI-Entwicklung mit kostenlosem KI-Co-Coding, sofort einsatzbereiter Umgebung und bestem GPU-Preis.

KI-gestütztes kollaboratives Programmieren
Sofort einsatzbereite GPUs
Die besten Preise

HyperAI Newsletters

Abonnieren Sie unsere neuesten Updates
Wir werden die neuesten Updates der Woche in Ihren Posteingang liefern um neun Uhr jeden Montagmorgen
Unterstützt von MailChimp
Verbesserung der Entitätenverknüpfung durch Modellierung latenter Entitätstypinformationen | Paper | HyperAI