Der Summary-Loop: Lernen, abstrakte Zusammenfassungen ohne Beispiele zu erstellen

Diese Arbeit präsentiert einen neuen Ansatz für die unsupervisierte abstraktive Zusammenfassung, der darauf abzielt, eine Kombination aus Abdeckung und Flüssigkeit unter Berücksichtigung einer vorgegebenen Längenbeschränkung zu maximieren. Es wird eine neuartige Methode vorgestellt, die die Einbeziehung zentraler Begriffe aus dem ursprünglichen Dokument in die Zusammenfassung fördert: Dabei werden Schlüsselbegriffe aus dem Originaldokument maskiert und müssen durch ein Abdeckungsmodell mithilfe der aktuell generierten Zusammenfassung wiederhergestellt werden. Ein neuartiges unsupervisiertes Trainingsverfahren nutzt dieses Abdeckungsmodell gemeinsam mit einem Flüssigkeitsmodell, um Zusammenfassungen zu generieren und zu bewerten. Bei Tests auf gängigen Datensätzen für Nachrichtenzusammenfassung übertrifft die Methode bisherige unsupervisierte Ansätze um mehr als 2 R-1-Punkte und nähert sich den Ergebnissen konkurrenzfähiger supervisierter Methoden an. Unser Modell erreicht ein höheres Maß an Abstraktion, wobei kopierte Textpassagen etwa zwei Mal kürzer sind als bei vorherigen Arbeiten, und lernt, Sätze ohne Überwachung zu komprimieren und zu verschmelzen.