Nebenziele für neuronale Fehlererkennungsmodelle

Wir untersuchen die Nutzen unterschiedlicher Nebenziele und Trainingsstrategien innerhalb eines neuronalen sequenziellen Labeling-Ansatzes zur Fehlererkennung im Schreibertraining. Nebenkosten versorgen das Modell mit zusätzlichen linguistischen Informationen, was es ermöglicht, allgemeine kompositionelle Merkmale zu erlernen, die dann für andere Ziele genutzt werden können. Unsere Experimente zeigen, dass ein gemeinsames Lernansatz, der mit parallelen Labels auf domänenspezifischen Daten trainiert wird, die Leistung im Vergleich zum bisher besten System zur Fehlererkennung verbessert. Obwohl das resultierende Modell dieselbe Anzahl von Parametern hat, ermöglichen die zusätzlichen Ziele eine effizientere Optimierung und bessere Leistungsergebnisse.