Abstraktive Zusammenfassung mit Fokus auf Anfragen: Einbeziehung von Anfrage-Relevanz, Mehrdokumentenabdeckung und Längenbeschränkungen in seq2seq-Modelle

Die Query-Focused Summarization (QFS) wird hauptsächlich mit extraktiven Methoden angegangen. Diese Methoden erzeugen jedoch Text, der unter geringer Kohärenz leidet. In dieser Arbeit untersuchen wir, wie abstraktive Methoden auf QFS angewendet werden können, um diese Einschränkungen zu überwinden. Neuere Entwicklungen in neuronalen Aufmerksamkeitsmodellen für die Sequenz-zu-Sequenz-Übersetzung haben zu erstklassigen Ergebnissen bei der abstraktiven generischen Einzeldokument-Zusammenfassung geführt. Solche Modelle werden in einem End-to-End-Verfahren auf großen Mengen von Trainingsdaten trainiert. Wir adressieren drei Aspekte, um abstraktive Zusammenfassungen für QFS nutzbar zu machen: (a) da es keine Trainingsdaten gibt, integrieren wir Abfrage-Relevanz in ein vortrainiertes abstraktives Modell; (b) da existierende abstraktive Modelle in einer Einzeldokument-Umgebung trainiert wurden, entwickeln wir eine iterative Methode, um abstraktive Modelle in die Mehrdokumentenanforderungen von QFS einzubetten; (c) die abstraktiven Modelle, die wir anpassen, sind darauf trainiert, Texte einer bestimmten Länge (ca. 100 Wörter) zu generieren, während unser Ziel die Erstellung von Ausgaben unterschiedlicher Größe (ca. 250 Wörter) ist; wir entwerfen einen Ansatz zur Anpassung der Zielgröße der generierten Zusammenfassungen an ein gegebenes Größenverhältnis. Wir vergleichen unsere Methode (Relevanzsensible Aufmerksamkeit für QFS) mit extraktiven Baselines und verschiedenen Kombinationsmöglichkeiten von abstraktiven Modellen anhand der DUC-QFS-Datensätze und zeigen signifikante Verbesserungen im ROUGE-Leistungsniveau.