Tiefer rekurrenter generativer Decoder für abstraktive Textzusammenfassung

Wir schlagen einen neuen Rahmen für die abstraktive Textzusammenfassung vor, der auf einem sequenz-zu-sequenz ausgerichteten Encoder-Decoder-Modell basiert, das mit einem tiefen rekurrenten generativen Decoder (DRGN) ausgestattet ist.Die in den Zielzusammenfassungen implizierten latente Strukturinformationen werden anhand eines rekurrenten latenten Zufallsmodells gelernt, um die Qualität der Zusammenfassung zu verbessern.Neuronale variationelle Inferenz wird eingesetzt, um die unlösbare posteriore Inferenz für die rekurrenten latenten Variablen zu behandeln.Abstraktive Zusammenfassungen werden sowohl auf Basis der generativen latenten Variablen als auch der diskriminativen deterministischen Zustände erzeugt.Ausführliche Experimente auf einigen Benchmark-Datensätzen in verschiedenen Sprachen zeigen, dass DRGN Verbesserungen gegenüber den Stand-of-the-Art-Methoden erzielt.