Command Palette
Search for a command to run...
Ein verstärktes, themenbewusstes Faltungssequenz-zu-Sequenz-Modell für abstraktive Textzusammenfassung
Ein verstärktes, themenbewusstes Faltungssequenz-zu-Sequenz-Modell für abstraktive Textzusammenfassung
Li Wang; Junlin Yao; Yunzhe Tao; Li Zhong; Wei Liu; Qiang Du
Zusammenfassung
In dieser Arbeit schlagen wir einen tiefen Lernansatz vor, um die automatischen Zusammenfassungsaufgaben zu lösen. Dabei integrieren wir Themeninformationen in das konvolutive Sequenz-zu-Sequenz-Modell (ConvS2S) und nutzen das selbstkritische Sequenztraining (SCST) zur Optimierung. Durch die gemeinsame Berücksichtigung von Themen und wortebenen Ausrichtungen kann unser Ansatz die Kohärenz, Vielfalt und Informationsdichte der generierten Zusammenfassungen über ein verzerrendes Wahrscheinlichkeitsgenerierungsmechanismus verbessern. Andererseits optimiert das Verstärkungslernen, wie SCST, das vorgeschlagene Modell direkt anhand des nicht differenzierbaren Metriks ROUGE, was auch den Expositionsfehler während der Inferenz vermeidet. Wir führen eine experimentelle Bewertung mit den neuesten Methoden auf den Datensätzen Gigaword, DUC-2004 und LCSTS durch. Die empirischen Ergebnisse belegen die Überlegenheit unserer vorgeschlagenen Methode bei der abstraktiven Zusammenfassung.