Stilübertragung in Texten: Explorierung und Bewertung

Der Stiltransfer ist ein wichtiges Problem im Bereich der natürlichen Sprachverarbeitung (NLP). Der Fortschritt im Stiltransfer von Sprache hinterlässt jedoch anderen Bereichen wie der Computer Vision gegenüber zu wünschen übrig, hauptsächlich aufgrund des Mangels an parallelen Daten und prinzipiellen Evaluationsmetriken. In dieser Arbeit schlagen wir vor, den Stiltransfer mit nicht-parallelen Daten zu lernen. Wir untersuchen zwei Modelle, um dieses Ziel zu erreichen, und die zentrale Idee hinter den vorgeschlagenen Modellen besteht darin, getrennte Inhaltsrepräsentationen und Stilrepräsentationen unter Verwendung von adversären Netzwerken zu erlernen. Des Weiteren schlagen wir neuartige Evaluationsmetriken vor, die zwei Aspekte des Stiltransfers messen: die Transferstärke und die Inhaltsbewahrung. Wir evaluieren unsere Modelle und die Evaluationsmetriken anhand zweier Aufgaben: der Titelübertragung zwischen wissenschaftlichen Artikeln und Nachrichten sowie der Übertragung von positiven zu negativen Bewertungen. Die Ergebnisse zeigen, dass das vorgeschlagene Metrik zur Inhaltsbewahrung stark mit menschlichen Urteilen korreliert und dass die vorgeschlagenen Modelle in der Lage sind, Sätze mit höherer Stiltransferstärke und vergleichbaren Werten für die Inhaltsbewahrung zu generieren im Vergleich zum Auto-Encoder.