Verbesserung der Abstraktion in der Textzusammenfassung

Die abstraktive Textzusammenfassung zielt darauf ab, lange Textdokumente in eine für Menschen lesbare Form zu verkürzen, die die wichtigsten Fakten des ursprünglichen Dokuments enthält. Allerdings bleibt der Grad der tatsächlichen Abstraktion, gemessen an neuen Phrasen, die nicht im Quelldokument vorkommen, bei den bestehenden Ansätzen gering. Wir schlagen zwei Techniken vor, um den Abstraktionsgrad der generierten Zusammenfassungen zu verbessern. Erstens zerlegen wir den Decoder in ein kontextuelles Netzwerk, das relevante Teile des Quelldokuments abruft, und in ein vorab trainiertes Sprachmodell, das Vorwissen über die Sprachgenerierung einbezieht. Zweitens schlagen wir eine Neuheitmetrik vor, die direkt durch Policy Learning optimiert wird, um die Generierung neuer Phrasen zu fördern. Unser Modell erreicht Ergebnisse, die mit denen der besten aktuellen Modelle vergleichbar sind, wie durch ROUGE-Werte und menschliche Bewertungen bestimmt wurde, während es gleichzeitig einen signifikant höheren Abstraktionsgrad aufweist, gemessen am n-Gramm-Überlapp mit dem Quelldokument.