Ein schrittweiser Gradientenstrafterm mit Similaritätsberechnung für die Textzusammenfassungserzeugung
Das mit einem Gradientenstrafe ausgestattete Zusammenfassungsgenerierungsmodell vermeidet Überanpassung und macht das Modell stabiler. Allerdings weist die traditionelle Gradientenstrafe zwei Probleme auf: (i) Die zweifache Berechnung des Gradienten verlängert die Trainingszeit, und (ii) der Störungsfaktor erfordert wiederholte Versuche, um den optimalen Wert zu finden. Um dies zu lösen, schlagen wir ein schrittweises Gradientenstrafe-Modell mit相似itätsberechnung (S2SGP) vor. Zunächst wird das schrittweise Gradientenstrafe-Verfahren auf das Zusammenfassungsgenerierungsmodell angewendet, wodurch die Trainingszeit effektiv reduziert wird, ohne die Genauigkeit zu beeinträchtigen. Zweitens wird der Ähnlichkeitswert zwischen der Referenz- und der Kandidatenzusammenfassung als Störungsfaktor verwendet. Um die Leistungsfähigkeit unseres vorgeschlagenen Ansatzes zu demonstrieren, führen wir Experimente auf vier Zusammenfassungsdatensätzen durch, wobei der EDUSum-Datensatz von uns neu erstellt wurde. Die experimentellen Ergebnisse zeigen, dass S2SGP die Trainingszeit effektiv verringert und die Störungsfaktoren nicht mehr auf wiederholte Versuche angewiesen sind. Insbesondere übertrifft unser Modell die Baseline auf dem CSL-Datensatz um mehr als 2,4 ROUGE-L-Punkte.