Command Palette
Search for a command to run...
Abstraktive Textzusammenfassung mit sequenzbasierten RNNs und darüber hinaus
Abstraktive Textzusammenfassung mit sequenzbasierten RNNs und darüber hinaus
Ramesh Nallapati Bowen Zhou Cicero dos Santos Çağlar Gülçehre Bing Xiang
Zusammenfassung
In dieser Arbeit modellieren wir die abstraktive Textzusammenfassung mit Hilfe von Aufmerksamkeitsbasierten Encoder-Decoder-Recurrent Neural Networks (RNNs) und zeigen, dass diese auf zwei verschiedenen Korpora eine Spitzenleistung erzielen. Wir schlagen mehrere neue Modelle vor, die kritische Probleme in der Zusammenfassung adressieren, die durch die grundlegende Architektur nicht ausreichend modelliert werden, wie zum Beispiel das Modellieren von Schlüsselwörtern, das Erfassen der Hierarchie der Satz-zu-Wort-Struktur und das Generieren von Wörtern, die selten oder während des Trainings nicht gesehen wurden. Unsere Arbeit zeigt, dass viele unserer vorgeschlagenen Modelle zu weiteren Leistungsverbesserungen beitragen. Darüber hinaus schlagen wir einen neuen Datensatz vor, der aus Mehrsatzzusammenfassungen besteht, und legen Leistungsbaselines für weitere Forschung fest.