HyperAIHyperAI
vor 2 Monaten

Zum Punkt kommen: Zusammenfassung mit Pointer-Generator-Netzwerken

Abigail See; Peter J. Liu; Christopher D. Manning
Zum Punkt kommen: Zusammenfassung mit Pointer-Generator-Netzwerken
Abstract

Neuronale Sequenz-zu-Sequenz-Modelle haben einen vielversprechenden neuen Ansatz für die extraktive Textzusammenfassung bereitgestellt (was bedeutet, dass sie nicht auf die einfache Auswahl und Anordnung von Passagen aus dem Originaltext beschränkt sind). Allerdings weisen diese Modelle zwei Nachteile auf: Sie neigen dazu, faktische Details ungenau zu reproduzieren, und sie wiederholen sich häufig. In dieser Arbeit schlagen wir eine neuartige Architektur vor, die das standardmäßige Sequenz-zu-Sequenz-Aufmerksamkeitsmodell in zwei orthogonalen Aspekten erweitert. Erstens verwenden wir ein hybrides Pointing-Generator-Netzwerk, das Wörter aus dem Quelltext durch Pointing kopieren kann. Dies unterstützt die genaue Wiedergabe von Informationen, während es gleichzeitig die Fähigkeit behält, durch den Generator neue Wörter zu erzeugen. Zweitens nutzen wir Coverage, um nachzuverfolgen, was bereits zusammengefasst wurde, was Wiederholungen entmutigt. Wir wenden unser Modell auf die Aufgabe der Zusammenfassung von CNN/Daily Mail-Artikeln an und übertreffen den aktuellen Stand der Technik in der extraktiven Zusammenfassung um mindestens 2 ROUGE-Punkte.

Zum Punkt kommen: Zusammenfassung mit Pointer-Generator-Netzwerken | Neueste Forschungsarbeiten | HyperAI