Neuronale Sequenz-Lernmodelle für die Wortbedeutungsentwicklung

Wort-Sinn-Entscheidungsmodelle existieren in vielfältigen Varianten. Obwohl überwachte Ansätze in Bezug auf Genauigkeit tendenziell die besten Ergebnisse liefern, verlieren sie häufig gegenüber flexibleren, auf Wissen basierenden Lösungen, die nicht für jedes Entschlüsselungsziel durch einen Wortexperten trainiert werden müssen. Um diese Lücke zu schließen, verfolgen wir einen anderen Ansatz und stützen uns auf Sequenzlernen, um das Entscheidungsproblem zu formulieren: Wir schlagen eine Reihe von end-to-end-neuralen Architekturen vor und untersuchen sie ausführlich, die speziell auf die Aufgabe zugeschnitten sind, von bidirektionalen Long Short-Term Memory-Modellen bis hin zu Encoder-Decoder-Modellen. Unsere umfassende Bewertung anhand etablierter Benchmarks und in mehreren Sprachen zeigt, dass Sequenzlernen es ermöglicht, vielseitigere, alle Wörter umfassende Modelle zu entwickeln, die konsistent Ergebnisse auf höchstem Niveau erzielen – selbst gegenüber Wortexperten mit handgefertigten Merkmalen.