HyperAIHyperAI
vor 16 Tagen

Steuerung der Menge an wörtlicher Übernahme bei abstraktiver Zusammenfassung

Kaiqiang Song, Bingqing Wang, Zhe Feng, Liu Ren, Fei Liu
Steuerung der Menge an wörtlicher Übernahme bei abstraktiver Zusammenfassung
Abstract

Ein Abstract darf die Bedeutung des ursprünglichen Textes nicht verändern. Eine einzige wirksame Methode, dies zu gewährleisten, besteht darin, die Menge an Kopieren zu erhöhen, während gleichzeitig eine Textabstraktion ermöglicht wird. Menschliche Redakteure können in der Regel die Menge an Kopieren kontrollieren, wodurch Zusammenfassungen entstehen, die entweder eher extraktiv oder eher abstraktiv sind. Es ist jedoch bisher wenig verstanden, ob moderne neuronale abstraktive Zusammenfassungsmodelle dieselbe Flexibilität aufweisen können, also aus einzelnen Referenzzusammenfassungen lernen und mehrere Zusammenfassungshypothesen mit unterschiedlichem Grad an Kopieren generieren können. In diesem Paper präsentieren wir ein neuronales Zusammenfassungsmodell, das durch Lernen aus einzelnen menschlichen Zusammenfassungen eine breite Bandbreite an Zusammenfassungen erzeugen kann – von rein extraktiven bis hin zu hoch generativen. Wir formulieren die Aufgabe der Zusammenfassung als Sprachmodellierung und nutzen alternative Mechanismen zur Generierung von Zusammenfassungshypothesen. Unser Ansatz ermöglicht eine Kontrolle über das Kopieren sowohl während des Trainings als auch während des Dekodierens eines neuronalen Zusammenfassungsmodells. Durch umfangreiche Experimente zeigen wir die Bedeutung unseres vorgeschlagenen Verfahrens zur Kontrolle des Umfangs wörtlicher Übernahmen und erzielen konkurrenzfähige Ergebnisse gegenüber starken Baselines. Unsere Analyse offenbart zudem interessante und nicht unmittelbar ersichtliche Erkenntnisse.

Steuerung der Menge an wörtlicher Übernahme bei abstraktiver Zusammenfassung | Neueste Forschungsarbeiten | HyperAI