vor 2 Monaten
Redundante Wiederholungen von Generationen für neurale abstrakte Zusammenfassungen kürzen
Jun Suzuki; Masaaki Nagata

Abstract
Dieses Papier befasst sich mit der Reduzierung von redundanten wiederholten Generierungen, die häufig in RNN-basierten Encoder-Decoder-Modellen beobachtet werden. Unser grundlegender Ansatz besteht darin, die obere Häufigkeitsgrenze jedes Zielvokabulars im Encoder gemeinsam zu schätzen und die Ausgabe-Wörter auf Basis dieser Schätzung im Decoder zu steuern. Unsere Methode zeigt erhebliche Verbesserungen gegenüber einem starken RNN-basierten Encoder-Decoder-Basismodell und erzielte ihre besten Ergebnisse bei einer Benchmark für abstraktive Zusammenfassung.