HyperAIHyperAI

Command Palette

Search for a command to run...

Ultra-Fine Entity Typing mit schwacher Supervision aus einem Masked Language Model

Hongliang Dai Yangqiu Song Haixun Wang

Zusammenfassung

In jüngster Zeit wird verstärkt daran gearbeitet, die feinkörnige Entitätstypisierung durch die Verwendung eines reichhaltigeren und ultra-feinkörnigen Typensatzes zu erweitern, wobei statt nur benannter Entitätsreferenzen auch Nominalphrasen, einschließlich Pronomina und nominaler Nomen, typisiert werden. Eine zentrale Herausforderung bei dieser ultra-feinkörnigen Entitätstypisierung liegt darin, dass menschlich annotierte Daten äußerst knapp sind und die Annotierungsfähigkeit bestehender Ansätze basierend auf distanzierter oder schwacher Aufsicht sehr begrenzt ist. Um dieses Problem zu beheben, schlagen wir in diesem Paper vor, Trainingsdaten für die ultra-feinkörnige Entitätstypisierung mithilfe eines BERT-Masked Language Models (MLM) zu generieren. Gegeben eine Entitätsreferenz in einem Satz konstruieren wir eine Eingabe für das BERT-MLM derart, dass es kontextabhängige Hyperonyme der Referenz vorhersagt, die als Typen verwendet werden können. Experimentelle Ergebnisse zeigen, dass die Leistung eines ultra-feinkörnigen Entitätstypisierungsmodells durch die Nutzung dieser automatisch generierten Etiketten erheblich verbessert werden kann. Außerdem demonstrieren wir, dass unser Ansatz auch zur Verbesserung der traditionellen feinkörnigen Entitätstypisierung eingesetzt werden kann, nachdem eine einfache Typenabbildung durchgeführt wurde.


KI mit KI entwickeln

Von der Idee bis zum Launch – beschleunigen Sie Ihre KI-Entwicklung mit kostenlosem KI-Co-Coding, sofort einsatzbereiter Umgebung und bestem GPU-Preis.

KI-gestütztes kollaboratives Programmieren
Sofort einsatzbereite GPUs
Die besten Preise

HyperAI Newsletters

Abonnieren Sie unsere neuesten Updates
Wir werden die neuesten Updates der Woche in Ihren Posteingang liefern um neun Uhr jeden Montagmorgen
Unterstützt von MailChimp