HyperAIHyperAI
vor 17 Tagen

Stellen Sie die Richtigkeit der Zusammenfassung sicher: Integrieren Sie Implikationswissen in die abstraktive Satzzusammenfassung

{Cheng-qing Zong, Junnan Zhu, Jiajun Zhang, Haoran Li}
Stellen Sie die Richtigkeit der Zusammenfassung sicher: Integrieren Sie Implikationswissen in die abstraktive Satzzusammenfassung
Abstract

In diesem Artikel untersuchen wir die Aufgabe der Satzsummarisierung, bei der aus einem Quelltext eine Zusammenfassung generiert wird. Neuronale sequenz-zu-Sequenz-Modelle haben bei dieser Aufgabe erheblichen Erfolg erzielt, wobei die meisten bestehenden Ansätze sich ausschließlich auf die Verbesserung der Informationsdichte der Zusammenfassung konzentrieren, wodurch die Korrektheit vernachlässigt wird, d. h., die Zusammenfassung sollte keine bezüglich des Quelltexts irrelevanten Informationen enthalten. Wir argumentieren, dass Korrektheit eine zentrale Anforderung für Zusammenfassungssysteme darstellt. Angesichts der Tatsache, dass eine korrekte Zusammenfassung semantisch aus dem Quelltext folgt, integrieren wir Entailment-Wissen in abstraktive Zusammenfassungsmodelle. Wir schlagen einen entailment-orientierten Encoder innerhalb eines Multi-Task-Frameworks (nämlich Zusammenfassungsgenerierung und Entailment-Erkennung) sowie einen entailment-orientierten Decoder mittels Entailment Reward Augmented Maximum Likelihood (RAML)-Training vor. Experimentelle Ergebnisse zeigen, dass unsere Modelle die Baselines hinsichtlich sowohl der Informationsdichte als auch der Korrektheit erheblich übertrifft.