HyperAIHyperAI
vor 2 Monaten

Treue zur Originalität: Faktbasierte neuronale abstrakte Zusammenfassung

Ziqiang Cao; Furu Wei; Wenjie Li; Sujian Li
Treue zur Originalität: Faktbasierte neuronale abstrakte Zusammenfassung
Abstract

Im Gegensatz zur extraktiven Zusammenfassung muss die abstraktive Zusammenfassung verschiedene Teile des Quelltextes fusionieren, was dazu neigt, Falschinformationen zu erzeugen. Unsere vorläufige Studie zeigt, dass fast 30 % der Ausgaben eines state-of-the-art neuronalen Zusammenfassungssystems von diesem Problem betroffen sind. Während frühere Ansätze der abstraktiven Zusammenfassung in der Regel auf die Verbesserung der Informationsdichte abzielten, argumentieren wir, dass Treue zum Original (Faithfulness) ebenfalls eine wesentliche Voraussetzung für ein praktikables abstraktives Zusammenfassungssystem ist. Um Falschinformationen in einer Zusammenfassung zu vermeiden, nutzen wir offene Informationsextraktion und Abhängigkeitsanalyse-Technologien, um tatsächliche Faktbeschreibungen aus dem Quelltext zu extrahieren. Anschließend wird ein duales Aufmerksamkeitsmodell im sequenzbasierten Framework vorgeschlagen, um die Generierung sowohl auf den Quelltext als auch auf die extrahierten Faktbeschreibungen zu konditionieren. Experimente mit dem Benchmark-Datensatz Gigaword zeigen, dass unser Modell die Erzeugung von Falszzusammenfassungen um 80 % reduzieren kann. Bemerkenswerterweise führen die Faktbeschreibungen auch zu einem signifikanten Anstieg der Informationsdichte, da sie oft den Inhalt des Quelltextes verdichten.

Treue zur Originalität: Faktbasierte neuronale abstrakte Zusammenfassung | Neueste Forschungsarbeiten | HyperAI