Bottom-Up Abstraktive Zusammenfassung

Neuronale Netzwerk-basierte Methoden für die abstraktive Zusammenfassung erzeugen Ausgaben, die flüssiger sind als andere Techniken, aber bei der Inhaltsauswahl mangelhaft sein können. Diese Arbeit schlägt eine einfache Technik zur Behebung dieses Problems vor: die Verwendung eines dateneffizienten Inhaltsselektors, um Phrasen in einem Quelldokument zu überbestimmen, die Teil der Zusammenfassung sein sollten. Wir verwenden diesen Selektor als Bottom-Up-Aufmerksamkeitsschritt, um das Modell auf wahrscheinliche Phrasen einzuschränken. Wir zeigen, dass dieser Ansatz die Fähigkeit zur Textkompression verbessert und gleichzeitig flüssige Zusammenfassungen generiert. Dieser zweistufige Prozess ist sowohl einfacher als auch leistungsfähiger als andere End-to-End-Inhaltsselektionsmodelle und führt zu erheblichen Verbesserungen des ROUGE-Scores sowohl für den CNN-DM- als auch für den NYT-Korpus. Darüber hinaus kann der Inhaltsselektor mit so wenig wie 1.000 Sätzen trainiert werden, was es einfach macht, einen trainierten Zusammenfasser auf ein neues Gebiet zu übertragen.