HyperAIHyperAI
vor 2 Monaten

Ein verstärktes, themenbewusstes Faltungssequenz-zu-Sequenz-Modell für abstraktive Textzusammenfassung

Li Wang; Junlin Yao; Yunzhe Tao; Li Zhong; Wei Liu; Qiang Du
Ein verstärktes, themenbewusstes Faltungssequenz-zu-Sequenz-Modell für abstraktive Textzusammenfassung
Abstract

In dieser Arbeit schlagen wir einen tiefen Lernansatz vor, um die automatischen Zusammenfassungsaufgaben zu lösen. Dabei integrieren wir Themeninformationen in das konvolutive Sequenz-zu-Sequenz-Modell (ConvS2S) und nutzen das selbstkritische Sequenztraining (SCST) zur Optimierung. Durch die gemeinsame Berücksichtigung von Themen und wortebenen Ausrichtungen kann unser Ansatz die Kohärenz, Vielfalt und Informationsdichte der generierten Zusammenfassungen über ein verzerrendes Wahrscheinlichkeitsgenerierungsmechanismus verbessern. Andererseits optimiert das Verstärkungslernen, wie SCST, das vorgeschlagene Modell direkt anhand des nicht differenzierbaren Metriks ROUGE, was auch den Expositionsfehler während der Inferenz vermeidet. Wir führen eine experimentelle Bewertung mit den neuesten Methoden auf den Datensätzen Gigaword, DUC-2004 und LCSTS durch. Die empirischen Ergebnisse belegen die Überlegenheit unserer vorgeschlagenen Methode bei der abstraktiven Zusammenfassung.

Ein verstärktes, themenbewusstes Faltungssequenz-zu-Sequenz-Modell für abstraktive Textzusammenfassung | Neueste Forschungsarbeiten | HyperAI