HyperAIHyperAI
vor 2 Monaten

Neuronale latente extraktive Dokumentenzusammenfassung

Xingxing Zhang; Mirella Lapata; Furu Wei; Ming Zhou
Neuronale latente extraktive Dokumentenzusammenfassung
Abstract

Extraktive Zusammenfassungsmodelle erfordern satzweise Labels, die in der Regel heuristisch erstellt werden (z.B. mit regelbasierten Methoden), da die meisten Zusammenfassungsdatasets nur Dokument-Zusammenfassungspaare enthalten. Da diese Labels möglicherweise suboptimal sind, schlagen wir ein latentes extraktives Modell vor, bei dem Sätze als latente Variablen betrachtet werden und Sätze mit aktivierten Variablen verwendet werden, um Gold-Zusammenfassungen zu inferieren. Während des Trainings stammt der Verlust \emph{direkt} von den Gold-Zusammenfassungen. Experimente mit dem CNN/Dailymail-Datensatz zeigen, dass unser Modell eine starke extraktive Baseline übertrifft, die auf heuristisch angenäherten Labels trainiert wurde, und auch wettbewerbsfähig zu mehreren aktuellen Modellen ist.

Neuronale latente extraktive Dokumentenzusammenfassung | Neueste Forschungsarbeiten | HyperAI