2ヶ月前

クエリに焦点を当てた抽象的要約:クエリの関連性、複数文書のカバー範囲、および要約の長さ制約をseq2seqモデルに組み込む

Tal Baumel; Matan Eyal; Michael Elhadad
クエリに焦点を当てた抽象的要約:クエリの関連性、複数文書のカバー範囲、および要約の長さ制約をseq2seqモデルに組み込む
要約

クエリ中心の要約(Query Focused Summarization: QFS)は、主に抽出型手法を用いて取り組まれてきました。しかし、これらの手法によって生成されるテキストは一貫性が低く、問題点が指摘されています。本研究では、抽象型手法をQFSに適用し、そのような制限を克服する方法を探ります。最近のニューラルアテンションに基づくシーケンス・ツー・シーケンスモデルの発展により、抽象型の一般的な単一文書要約において最先端の成果が得られています。これらのモデルは大量の学習データを用いてエンドツーエンドで訓練されます。抽象型要約をQFSに適用するために以下の3つの側面について考察します:(a) 学習データがないため、事前学習済みの抽象型モデルにクエリ関連性を取り入れます;(b) 現在の抽象型モデルは単一文書設定で訓練されているため、複数文書要約の必要性に対応する反復的な手法を開発します;(c) 我々が適応する抽象型モデルは特定の長さ(約100語)のテキストを生成するように訓練されていますが、我々は異なるサイズ(約250語)の出力を目指しています;生成される要約の目標サイズを指定されたサイズ比に合わせる方法を開発します。我々の手法(QFS用関連性敏感アテンション: Relevance Sensitive Attention for QFS)をDUC QFSデータセット上で抽出型基準と比較し、さらに様々な方法で抽象型モデルを組み合わせた場合との比較も行いました。その結果、ROUGE性能において着実な改善が示されました。

クエリに焦点を当てた抽象的要約:クエリの関連性、複数文書のカバー範囲、および要約の長さ制約をseq2seqモデルに組み込む | 最新論文 | HyperAI超神経