AutoSense-Modell für die Wortsinninduktion

Die Wortbedeutungserkennung (WSE) oder die automatische Entdeckung mehrerer Bedeutungen eines Wortes hat drei Hauptausforderungen: Domänenanpassbarkeit, Erkennung neuer Bedeutungen und Flexibilität der Bedeutungsfeinheit. Obwohl aktuelle latente Variablenmodelle bekannt sind für ihre Lösungen der ersten beiden Herausforderungen, sind sie nicht flexibel gegenüber verschiedenen Wortbedeutungsfeinheiten, die von Wort zu Wort stark variieren – vom Ameisenbär mit einer Bedeutung bis hin zu „play“ mit über 50 Bedeutungen. Aktuelle Modelle erfordern entweder die Anpassung von Hyperparametern oder eine nichtparametrische Induktion der Anzahl der Bedeutungen, was wir beide als ineffektiv erachten. Daher streben wir an, diese Anforderungen zu beseitigen und das Problem der Bedeutungsfeinheit durch den Vorschlag von AutoSense zu lösen, einem latenten Variablenmodell basierend auf zwei Beobachtungen: (1) Bedeutungen werden als Verteilung über Themen dargestellt, und (2) Bedeutungen erzeugen Paarungen zwischen dem Zielwort und dessen Nachbarwort. Diese Beobachtungen mildern das Problem dadurch, dass (a) unbrauchbare Bedeutungen verworfen werden und (b) zusätzliche feingranulare Wortbedeutungen induziert werden. Die Ergebnisse zeigen erhebliche Verbesserungen im Vergleich zu den besten bisherigen Modellen in gängigen WSE-Datensätzen. Wir zeigen außerdem, dass AutoSense in der Lage ist, die angemessene Bedeutungsfeinheit eines Wortes zu lernen. Schließlich wenden wir AutoSense auf die Aufgabe der unbeaufsichtigten Autor-Name-Disambiguierung an, bei der das Problem der Bedeutungsfeinheit deutlicher wird, und demonstrieren, dass AutoSense offensichtlich besser als konkurrierende Modelle ist. Wir teilen unsere Daten und Code hier ein: https://github.com/rktamplayo/AutoSense.