HyperAIHyperAI
vor 2 Monaten

Abstraktive Textzusammenfassung mit sequenzbasierten RNNs und darüber hinaus

Ramesh Nallapati; Bowen Zhou; Cicero Nogueira dos santos; Caglar Gulcehre; Bing Xiang
Abstraktive Textzusammenfassung mit sequenzbasierten RNNs und darüber hinaus
Abstract

In dieser Arbeit modellieren wir die abstraktive Textzusammenfassung mit Hilfe von Aufmerksamkeitsbasierten Encoder-Decoder-Recurrent Neural Networks (RNNs) und zeigen, dass diese auf zwei verschiedenen Korpora eine Spitzenleistung erzielen. Wir schlagen mehrere neue Modelle vor, die kritische Probleme in der Zusammenfassung adressieren, die durch die grundlegende Architektur nicht ausreichend modelliert werden, wie zum Beispiel das Modellieren von Schlüsselwörtern, das Erfassen der Hierarchie der Satz-zu-Wort-Struktur und das Generieren von Wörtern, die selten oder während des Trainings nicht gesehen wurden. Unsere Arbeit zeigt, dass viele unserer vorgeschlagenen Modelle zu weiteren Leistungsverbesserungen beitragen. Darüber hinaus schlagen wir einen neuen Datensatz vor, der aus Mehrsatzzusammenfassungen besteht, und legen Leistungsbaselines für weitere Forschung fest.

Abstraktive Textzusammenfassung mit sequenzbasierten RNNs und darüber hinaus | Neueste Forschungsarbeiten | HyperAI