EditNTS: Ein neuronales Programmierer-Interpreter-Modell zur Satzvereinfachung durch explizites Bearbeiten

Wir präsentieren das erste Modell zur Satzvereinfachung, das explizite Bearbeitungsoperationen (HINZUFÜGEN, LÖSCHEN und BEIBEHALTEN) durch einen neuronalen Programmierer-Interpreter-Ansatz lernt. Die meisten aktuellen neuronale Systeme zur Satzvereinfachung sind Varianten von Sequenz-zu-Sequenz-Modellen, die aus der maschinellen Übersetzung übernommen wurden. Diese Methoden lernen, Sätze zu vereinfachen, als Nebenprodukt der Tatsache, dass sie auf komplex-einfachen Satzpaaren trainiert werden. Im Gegensatz dazu wird unser neuronaler Programmierer-Interpreter direkt trainiert, um explizite Bearbeitungsoperationen auf bestimmten Teilen des Eingabesatzes vorherzusagen, was der Art ähnelt, wie Menschen Vereinfachungen und Überarbeitungen durchführen. Unser Modell übertrifft die bisher besten neuronalen Modelle zur Satzvereinfachung (ohne externe Kenntnisse) erheblich in drei Benchmark-Korpora für Textvereinfachung hinsichtlich des SARI-Werts (+0,95 WikiLarge, +1,89 WikiSmall, +1,41 Newsela) und wird von Menschen als insgesamt besser und einfacher bewertet.