18日前

文脈情報を活用した教師なし生成的依存解析器の性能向上

{Kewei Tu, Yong Jiang, Wenjuan Han}
文脈情報を活用した教師なし生成的依存解析器の性能向上
要約

多くの無監督依存解析モデルは、与えられた文とその解析構造の同時分布を学習する確率的生成モデルに基づいている。このような確率的生成モデルは通常、目的とする依存木を因子化された文法規則に明示的に分解するため、文全体のグローバルな特徴を捉えきれないという課題がある。本論文では、連続的な潜在表現から文とその解析構造を生成する新しい確率的モデル、すなわち「価数を考慮した判別型ニューラル依存モデル(Discriminative Neural Dependency Model with Valence: D-NDMV)」を提案する。この潜在表現は、生成される文のグローバルな文脈情報を符号化している。本研究では、潜在表現をモデリングするための2つのアプローチを提案する。1つ目は、文から潜在表現を決定論的に要約する方法であり、2つ目は、文を条件とした確率的に潜在表現をモデル化する方法である。本手法は、生成的手法と判別的手法の利点を統合した、無監督依存解析に対する新たなタイプのオートエンコーダモデルと見なすことができる。特に、従来の生成的手法が仮定していた文脈自由独立性(context-free independence)の制約を打破することで、より表現力豊かなモデルを実現している。様々なソースから得られた17のデータセットに対する広範な実験結果から、本手法が、生成型および判別型の最先端無監督依存解析モデルと比較しても競争力ある精度を達成していることが示された。