Transformer-Modelle zur Bewertung der Textkohärenz

Kohärenz ist ein wichtiger Aspekt der Textqualität und entscheidend für die Gewährleistung seiner Lesbarkeit. Sie ist bei Ausgaben von Textgenerierungssystemen wie Zusammenfassung, Fragebeantwortung, maschinelle Übersetzung, Fragegenerierung, Tabellen-zu-Text usw. besonders erwünscht. Ein automatisches Kohärenzbewertungsmodell ist auch hilfreich bei der Bewertung von Aufsätzen oder dem Bereitstellen von Schreibfeedback. Eine große Menge früherer Arbeiten hat entitätsbasierte Methoden, syntaktische Muster, Diskursrelationen und in jüngerer Zeit traditionelle Deep-Learning-Architekturen zur Beurteilung der Textkohärenz genutzt. Diese früheren Arbeiten leiden jedoch unter Nachteilen wie der Unfähigkeit, langfristige Abhängigkeiten, Wörter außerhalb des Vokabulars (out-of-vocabulary) oder sequenzielle Informationen zu verarbeiten. Wir gehen davon aus, dass die Beurteilung der Kohärenz eine kognitiv komplexe Aufgabe ist, die tiefer gehende Modelle erfordert und von anderen verwandten Aufgaben profitieren kann. Demgemäß schlagen wir in diesem Papier vier verschiedene Transformer-basierte Architekturen für diese Aufgabe vor: den einfachen Transformer (vanilla Transformer), den hierarchischen Transformer, ein modellbasiertes Mehrfachlernensystem (multi-task learning-based model) und ein Modell mit faktenbasierter Eingaberepräsentation. Unsere Experimente mit gängigen Benchmark-Datensätzen aus verschiedenen Domänen bei vier unterschiedlichen Kohärenzbewertungsaufgaben zeigen, dass unsere Modelle erstklassige Ergebnisse erzielen und bestehende Modelle deutlich übertreffen.