SimCLS: Ein einfaches Framework für die kontrastive Lernung abstraktiver Zusammenfassungen

In diesem Paper präsentieren wir einen konzeptionell einfachen, jedoch empirisch leistungsstarken Ansatz für abstraktive Zusammenfassung, SimCLS, der die Lücke zwischen dem Lernziel und den Bewertungsmetriken schließt, die durch den derzeit vorherrschenden sequenz-zu-sequenz-Lernansatz entsteht, indem die Textgenerierung als referenzfreie Bewertungsaufgabe (d. h. Qualitätsabschätzung) unter Verwendung von Kontrastlernverfahren formuliert wird. Experimentelle Ergebnisse zeigen, dass SimCLS mit nur geringfügigen Modifikationen an bestehenden Spitzen-Systemen die Leistung bestehender Top-Modelle erheblich verbessern kann. Insbesondere erzielt SimCLS eine absolute Verbesserung von 2,51 gegenüber BART und 2,50 gegenüber PEGASUS hinsichtlich ROUGE-1 auf dem CNN/DailyMail-Datensatz, wodurch die bisher beste Leistung auf eine neue Ebene gehoben wird. Wir haben unseren Code und die Ergebnisse öffentlich zugänglich gemacht: https://github.com/yixinL7/SimCLS. Die Ergebnisse unserer vorgeschlagenen Modelle sind bereits in die ExplainaBoard-Plattform integriert, die Forschern eine detailliertere Analyse unserer Systeme ermöglicht.