Extraktive Zusammenfassung langer Dokumente durch Kombination globaler und lokaler Kontextinformation

In diesem Artikel stellen wir ein neuartiges neuronales Modell zur extraktiven Zusammenfassung einzelner Dokumente für lange Texte vor, das sowohl den globalen Kontext des gesamten Dokuments als auch den lokalen Kontext innerhalb des aktuellen Themas berücksichtigt. Wir evaluieren das Modell an zwei Datensätzen wissenschaftlicher Artikel, Pubmed und arXiv, wobei es sowohl gegenüber früheren extraktiven als auch abstraktiven Ansätzen in den ROUGE-1-, ROUGE-2- und METEOR-Scores überlegen ist. Zudem zeigen wir, dass die Vorteile unseres Ansatzes – im Einklang mit unserem Ziel – mit zunehmender Länge der Dokumente stärker hervortreten. Überraschenderweise zeigt eine Ablationsstudie, dass die Vorteile des Modells offenbar ausschließlich auf die Modellierung des lokalen Kontexts zurückzuführen sind, selbst bei den längsten Dokumenten.