Themaorientierte kontrastive Lernverfahren für abstraktive Dialogzusammenfassung

Im Gegensatz zu gut strukturierten Texten wie Nachrichtenberichten oder Enzyklopädieneinträgen stammt Dialoginhalte oft von zwei oder mehr Gesprächspartnern, die sich gegenseitig Informationen austauschen. In einem solchen Kontext kann sich das Thema einer Unterhaltung im Laufe der Zeit verändern, und die zentralen Informationen zu einem bestimmten Thema sind häufig über mehrere Äußerungen verschiedener Sprecher verstreut, was Herausforderungen für die abstrakte Zusammenfassung von Dialogen darstellt. Um die vielfältigen Themeninformationen einer Unterhaltung zu erfassen und wesentliche Fakten für die erfassten Themen zu formulieren, wird in dieser Arbeit ein zweifaches, themenbewusstes kontrastives Lernziel vorgeschlagen: das Ziel der Kohärenzdetektion und das Ziel der Unterzusammenfassungsgenerierung. Beide Ziele sollen implizit die Themenänderung modellieren und die Herausforderung der Informationsverteilung bei der Dialogzusammenfassung bewältigen. Die vorgeschlagenen kontrastiven Ziele werden als Hilfsaufgaben für die primäre Aufgabe der Dialogzusammenfassung formuliert und über eine alternierende Parameteraktualisierungsstrategie integriert. Umfangreiche Experimente auf Benchmark-Datensätzen zeigen, dass die vorgeschlagene einfache Methode starke Baselines erheblich übertrifft und eine neue State-of-the-Art-Leistung erzielt. Der Quellcode und die trainierten Modelle sind öffentlich über \href{https://github.com/Junpliu/ConDigSum}{https://github.com/Junpliu/ConDigSum} verfügbar.