2ヶ月前

抽出型と抽象型の要約を一貫性損失を使用して統合するモデル

Wan-Ting Hsu; Chieh-Kai Lin; Ming-Ying Lee; Kerui Min; Jing Tang; Min Sun
抽出型と抽象型の要約を一貫性損失を使用して統合するモデル
要約

我々は抽出型と抽象型要約の強みを組み合わせた統一モデルを提案します。一方、単純な抽出型モデルは高いROUGEスコアを獲得できますが、読みやすさに欠けます。他方、より複雑な抽象型モデルは単語レベルの動的な注意を取得し、より読みやすい段落を生成することができます。当該モデルでは、文レベルの注意が単語レベルの注意を調整するために使用され、注目度の低い文に含まれる単語が生成される確率が低下します。さらに、二つの注意レベル間の一貫性のない部分に対するペナルティとして新しい不整合損失関数(inconsistency loss function)を導入しました。この不整合損失と抽出型・抽象型モデルの元々の損失関数を使用してエンドツーエンドで当該モデルを訓練することで、CNN/デイリー・メールデータセットにおいて最新のROUGEスコアを達成するとともに、堅実な人間評価において最も情報量が多く読みやすい要約を得ることができました。

抽出型と抽象型の要約を一貫性損失を使用して統合するモデル | 最新論文 | HyperAI超神経