Ein neuer Ansatz zur Übergenerierung und Bewertung abstraktiver Zusammenfassungen

Wir schlagen einen neuen Ansatz vor, um mehrere Varianten der Zielzusammenfassung mit abweichenden Inhalten und unterschiedlichen Längen zu generieren, die anschließend nach den Bedürfnissen der Nutzer bewertet und ausgewählt werden. Abstraktive Zusammenfassungssysteme, die auf einzelnen Referenzzusammenfassungen trainiert wurden, können Schwierigkeiten haben, Ausgaben zu erzeugen, die mehrere wünschenswerte Eigenschaften erfüllen, nämlich die wichtigsten Informationen zu erfassen, der Originalquelle treu zu bleiben, grammatikalisch korrekt und flüssig zu sein. In diesem Artikel präsentieren wir eine zweistufige Strategie: In Stufe eins generieren wir eine vielfältige Menge an Kandidatenzusammenfassungen aus dem Quelltext, und in Stufe zwei bewerten und selektieren wir die zulässigen Varianten. Wichtig ist, dass unser Generator eine präzise Kontrolle über die Länge der Zusammenfassung ermöglicht, was besonders vorteilhaft ist, wenn der verfügbare Platz begrenzt ist. Unsere Selektoren sind darauf ausgelegt, die optimale Zusammenfassungslänge vorherzusagen und besonderes Augenmerk auf die Treue zur Originalquelle zu legen. Beide Stufen können effektiv trainiert, optimiert und evaluiert werden. Unsere Experimente auf etablierten Benchmark-Datensätzen für Zusammenfassung deuten darauf hin, dass dieses Paradigma eine state-of-the-art-Leistung erreicht.