Abstraktive Textzusammenfassung durch Einbeziehung von Leserkommentaren

Im Bereich der neuronalen abstraktiven Zusammenfassung leiden herkömmliche sequenzbasierte Modelle oft daran, dass sie die falschen Aspekte des Dokuments im Vergleich zum Hauptaspekt zusammenfassen. Um dieses Problem zu lösen, schlagen wir die Aufgabe der leserbewussten abstraktiven Zusammenfassungsgenerierung vor, die Leserkommentare nutzt, um dem Modell bei der Erstellung einer besseren Zusammenfassung des Hauptaspekts zu helfen. Im Gegensatz zur traditionellen abstraktiven Zusammenfassungsaufgabe steht die leserbewusste Zusammenfassung vor zwei Hauptherausforderungen: (1) Kommentare sind informell und rauschig; (2) das gemeinsame Modellieren von Nachrichtendokument und Leserkommentaren ist schwierig. Um den oben genannten Herausforderungen entgegenzutreten, haben wir ein adversariales Lernmodell entwickelt, das als leserbewusster Zusammenfassungs-Generator (RASG) bezeichnet wird. Dieses besteht aus vier Komponenten: (1) einem sequenzbasierten Zusammenfassungs-Generator; (2) einem Leser-Aufmerksamkeitsmodul, das die von den Lesern fokussierten Aspekte erfasst; (3) einem Supervisor, der den semantischen Abstand zwischen der generierten Zusammenfassung und den von den Lesern fokussierten Aspekten modelliert; (4) einem Zielverfolger, der für jeden Generierungsschritt das Ziel produziert. Supervisor und Zielverfolger werden verwendet, um unser Framework auf adversariale Weise zu trainieren. Ausführliche Experimente wurden auf unserem groß angelegten realweltlichen Textzusammenfassungsdatensatz durchgeführt, und die Ergebnisse zeigen, dass RASG sowohl in Bezug auf automatische Metriken als auch auf menschliche Bewertungen den Stand der Technik erreicht. Die experimentellen Ergebnisse belegen zudem die Effektivität jeder Komponente in unserem Framework. Wir stellen unseren groß angelegten Datensatz für weitere Forschungen zur Verfügung.