Command Palette
Search for a command to run...
{Tsutomu Hirao Katsuhiko Hayashi Masaaki Nagata Hidetaka Kamigaito}

要約
LSTMを用いた文要約手法は、滑らかで自然な要約文を生成できる。しかし、この手法は構文的特徴を明示的に扱わないため、長文の要約において性能が著しく低下するという問題がある。この課題を解決するため、LSTMの隠れ状態上に高次依存関係特徴を注意機構(attention distribution)として処理できる高次構文注意ネットワーク(HiSAN)を提案する。さらに、誤った構文解析結果の影響を避けるために、正しい出力確率と注意分布の両方を同時に最大化するようにHiSANを学習した。Google文要約データセットを用いた実験の結果、本手法はF1スコアおよびROUGE-1、ROUGE-2、Lスコアにおいて、それぞれ83.2、82.9、75.8、82.7の最高性能を達成した。人間評価においても、読みやすさと情報量の両面で、ベースライン手法を上回る結果が得られた。
ベンチマーク
| ベンチマーク | 方法論 | 指標 |
|---|---|---|
| sentence-compression-on-google-dataset | Higher-Order Syntactic Attention Network | F1: 0.835 |