HyperAIHyperAI

Command Palette

Search for a command to run...

Vorwärtsbewegung entlang dem langen Schwanz der Wortsinndisambiguierung mit glossinformierten Bi-Encodern

Luke Zettlemoyer Terra Blevins

Zusammenfassung

Ein wesentlicher Hindernis bei der Wortsinndisambiguierung (WSD) besteht darin, dass Wortsinne nicht gleichmäßig verteilt sind, was dazu führt, dass bestehende Modelle im Allgemeinen schlecht auf seltene oder während des Trainings nicht gesehene Sinne performen. Wir stellen ein Bi-Encoder-Modell vor, das unabhängig (1) das Zielfeldwort zusammen mit seiner Umgebung und (2) die Wörterbuchdefinition, also den Gloss, jedes Sinns, einbettet. Die Encoder werden gemeinsam in derselben Repräsentationsraum-Optimierung trainiert, sodass die Sinndisambiguierung durch die Suche nach der nächstgelegenen Sinneinbettung für jede Zielfeldworteinbettung erfolgen kann. Unser System erreicht eine bessere Leistung als frühere state-of-the-art-Modelle bei der englischen All-Words-WSD; diese Verbesserungen stammen überwiegend aus einer verbesserten Leistung bei seltenen Sinnen, was zu einer Reduktion des Fehlers um 31,1 % bei weniger häufigen Sinnen gegenüber vorhergehenden Arbeiten führt. Dies zeigt, dass seltene Sinnen effektiver disambiguiert werden können, indem ihre Definitionen modelliert werden.


KI mit KI entwickeln

Von der Idee bis zum Launch – beschleunigen Sie Ihre KI-Entwicklung mit kostenlosem KI-Co-Coding, sofort einsatzbereiter Umgebung und bestem GPU-Preis.

KI-gestütztes kollaboratives Programmieren
Sofort einsatzbereite GPUs
Die besten Preise

HyperAI Newsletters

Abonnieren Sie unsere neuesten Updates
Wir werden die neuesten Updates der Woche in Ihren Posteingang liefern um neun Uhr jeden Montagmorgen
Unterstützt von MailChimp