
要約
意味の曖昧性解消(Word Sense Disambiguation)モデルは多様な形式で存在する。精度の観点では教師ありモデルが最も優れた性能を示す傾向にあるものの、各意味解消ターゲットに対して語彙専門家によるトレーニングが必要なため、柔軟性に優れる知識ベースのアプローチに比べて実用性で劣ることが多い。このギャップを埋めるために、我々は新たな視点を採用し、系列学習(sequence learning)を用いて意味の曖昧性解消問題を定式化する。具体的には、双方向LSTM(bidirectional Long Short-Term Memory)からエンコーダ・デコーダモデルに至るまで、タスクに直接適合した一連のエンド・ツー・エンド型ニューラルアーキテクチャを提案し、その性能を深く検討する。標準ベンチマークにおける広範な評価および複数言語での実験結果から、系列学習によって汎用性の高い「すべての語」を扱えるモデルが実現可能であり、手作業で特徴を設計した語彙専門家をも凌駕する一貫した最先端の成果を達成できることを示した。