2ヶ月前
ニューラルネットワークの遷移ベース解析のための構造化トレーニング
David Weiss; Chris Alberti; Michael Collins; Slav Petrov

要約
私たちはニューラルネットワーク遷移ベースの依存関係解析における構造化パーセプトロン訓練を提案します。金標準コーパスに大量の自動解析された文を追加することで、ニューラルネットワーク表現を学習します。この固定されたネットワーク表現のもとで、ビームサーチデコーディングを使用して最終層を構造化パーセプトロンによって学習します。ペン・ツリバンクにおいて、私たちの解析器はラベルなしで94.26%、ラベルありで92.41%の接続精度を達成しており、これがスタンフォード依存関係(Stanford Dependencies)においてこれまでに報告された最高精度であると認識しています。また、精度向上に最も寄与するモデルのどの側面が重要であるかを決定するために、詳細な削除分析も提供しています。