Verbesserte Wortsinndisambiguierung mit verfeinerten Sinndarstellungen
{Qian Lin Hwee Tou Ng Xin Cai Ong Yang song}

Abstract
Aktuelle state-of-the-art-Systeme für überwachtes Wortbedeutungsdisambiguierung (WSD), wie beispielsweise GlossBERT und Bi-Encoder-Modelle, erzielen überraschend gute Ergebnisse, indem sie ausschließlich auf vortrainierte Sprachmodelle sowie kurze Wörterbuchdefinitionen (sogenannte Glosses) verschiedener Wortbedeutungen zurückgreifen. Obwohl diese Glosses prägnant und intuitiv sind, stellen sie lediglich eine von vielen Möglichkeiten dar, Informationen über Wortbedeutungen bereitzustellen. In diesem Artikel konzentrieren wir uns darauf, die Repräsentation von Bedeutungen durch die Einbeziehung von Synonymen, Beispielphrasen oder -sätzen, die die Verwendung bestimmter Bedeutungen illustrieren, sowie der Glosses von Hypernyms zu verbessern. Wir zeigen, dass die Integration dieser zusätzlichen Informationen die Leistungsfähigkeit im WSD erheblich steigert. Mit den vorgeschlagenen Erweiterungen erreicht unser System auf dem standardisierten Benchmark-Datensatz der englischen All-Words-WSD-Aufgabe einen F1-Score von 82,0 % und übertrifft damit alle bisher veröffentlichten Ergebnisse auf diesem Benchmark-Datensatz.
Benchmarks
| Benchmark | Methodik | Metriken |
|---|---|---|
| word-sense-disambiguation-on-supervised | ESR | SemEval 2007: 77.0 SemEval 2013: 81.5 SemEval 2015: 84.1 Senseval 2: 81.3 Senseval 3: 79.9 |
| word-sense-disambiguation-on-supervised | ESR+WNGC | SemEval 2007: 78.5 SemEval 2013: 82.3 SemEval 2015: 85.3 Senseval 2: 82.5 Senseval 3: 80.2 |
KI mit KI entwickeln
Von der Idee bis zum Start — beschleunigen Sie Ihre KI-Entwicklung mit kostenlosem KI-Co-Coding, sofort einsatzbereiter Umgebung und den besten GPU-Preisen.