2ヶ月前

文法的に先読み注意ネットワークによる文圧縮

Hidetaka Kamigaito; Manabu Okumura
文法的に先読み注意ネットワークによる文圧縮
要約

文の圧縮は、冗長な単語を削除して長い文を短い文に圧縮するタスクである。シーケンス・ツー・シーケンス(Seq2Seq)ベースのモデルでは、デコーダーが一方向的に単語を保持するか削除するかを決定するため、通常はデコードされた単語と将来の時間ステップでデコードされる未見の単語との関係を明示的に捉えることができない。したがって、文法的に正しくない文を生成しないようにするために、デコーダーは時として重要な単語を落としてしまうことがある。この問題を解決するために、我々は新しいSeq2Seqモデルである構文先読み注意ネットワーク(Syntactically Look-Ahead Attention Network: SLAHAN)を提案する。このモデルは、デコーディング中に依存関係の親単語と子単語双方を明示的に追跡し、将来デコードされる重要な単語を捉えることで情報量豊かな要約を作成できる。Googleの文圧縮データセットにおける自動評価の結果、SLAHANは保持トークンに基づくF1値、ROUGE-1、ROUGE-2およびROUGE-Lスコアにおいてそれぞれ85.5、79.3、71.3および79.1という最高得点を達成した。また、SLAHANは長い文での要約性能も向上させた。さらに人間による評価では、SLAHANは情報量を向上させつつ読みやすさを損なわなかった。

文法的に先読み注意ネットワークによる文圧縮 | 最新論文 | HyperAI超神経