HyperAIHyperAI
vor 3 Monaten

Vorwärtsbewegung entlang dem langen Schwanz der Wortsinndisambiguierung mit glossinformierten Bi-Encodern

{Luke Zettlemoyer, Terra Blevins}
Vorwärtsbewegung entlang dem langen Schwanz der Wortsinndisambiguierung mit glossinformierten Bi-Encodern
Abstract

Ein wesentlicher Hindernis bei der Wortsinndisambiguierung (WSD) besteht darin, dass Wortsinne nicht gleichmäßig verteilt sind, was dazu führt, dass bestehende Modelle im Allgemeinen schlecht auf seltene oder während des Trainings nicht gesehene Sinne performen. Wir stellen ein Bi-Encoder-Modell vor, das unabhängig (1) das Zielfeldwort zusammen mit seiner Umgebung und (2) die Wörterbuchdefinition, also den Gloss, jedes Sinns, einbettet. Die Encoder werden gemeinsam in derselben Repräsentationsraum-Optimierung trainiert, sodass die Sinndisambiguierung durch die Suche nach der nächstgelegenen Sinneinbettung für jede Zielfeldworteinbettung erfolgen kann. Unser System erreicht eine bessere Leistung als frühere state-of-the-art-Modelle bei der englischen All-Words-WSD; diese Verbesserungen stammen überwiegend aus einer verbesserten Leistung bei seltenen Sinnen, was zu einer Reduktion des Fehlers um 31,1 % bei weniger häufigen Sinnen gegenüber vorhergehenden Arbeiten führt. Dies zeigt, dass seltene Sinnen effektiver disambiguiert werden können, indem ihre Definitionen modelliert werden.

Vorwärtsbewegung entlang dem langen Schwanz der Wortsinndisambiguierung mit glossinformierten Bi-Encodern | Forschungsarbeiten | HyperAI