
要約
文脈に応じた単語表現(contextualized word representations)は、同じ単語でも異なる文脈において異なる表現を生成できるため、質問応答、固有表現抽出、感情分析など、自然言語処理の下流タスクにおいて有効であることが示されている。しかし、従来の研究における意味あいまいさの解消(Word Sense Disambiguation: WSD)の評価では、文脈に応じた単語表現を用いることよりも、文脈に依存しない単語埋め込み(non-contextualized word embeddings)を利用した最先端のアプローチの方が優れた性能を示している。本論文では、事前学習済みの文脈に応じた単語表現を統合するためのさまざまな戦略を検討し、最も効果的な戦略により、複数のベンチマークWSDデータセットにおいて、従来の最高性能を著しく上回る精度を達成した。本研究のソースコードは、https://github.com/nusnlp/contextemb-wsd にて公開している。