Schnelle abstrakte Zusammenfassung durch umformuliertes Satzselektion mit Reinforcement

Inspiration für die Erstellung von Zusammenfassungen langer Dokumente bei Menschen nehmend, schlagen wir ein präzises und schnelles Zusammenfassungsmodell vor, das zunächst wichtige Sätze auswählt und diese dann abstrakt (d.h. komprimiert und paraphrasiert) umschreibt, um eine prägnante Gesamtzusammenfassung zu erzeugen. Wir verwenden eine neuartige satzorientierte Policy-Gradienten-Methode, um die nicht differenzierbare Berechnung zwischen diesen beiden neuronalen Netzen hierarchisch zu verbinden, wobei wir die Sprachflüssigkeit aufrechterhalten. Empirisch erreichen wir den neuen Stand der Technik in allen Metriken (einschließlich menschlicher Bewertungen) im CNN/Daily Mail-Datensatz sowie signifikant höhere Abstraktheitsscores. Darüber hinaus ermöglicht uns die Abarbeitung initially auf Satzebene und dann auf Wortebene die parallele Decodierung unseres neuronalen Generativmodells, was zu einer deutlich höheren Inferenzgeschwindigkeit (10-20-mal) sowie einer 4-mal schnelleren Trainingskonvergenz im Vergleich zu früheren Modellen mit langen Absatzencodern-Decodern führt. Zudem zeigen wir die Generalisierungsfähigkeit unseres Modells am nur zum Testen bereitgestellten DUC-2002-Datensatz, wo wir höhere Scores als ein Stand-der-Technik-Modell erzielen.