Multi-Task Attentive Residuale Netzwerke für die Argumentmining

Wir untersuchen die Anwendung von Residualnetzwerken und neuronalen Aufmerksamkeitsmechanismen für mehrere Argumentminierungsaufgaben. Wir schlagen eine Residualarchitektur vor, die Aufmerksamkeit, Multi-Task-Lernen und Ensembleverfahren nutzt, ohne irgendeine Annahme über die Struktur von Dokumenten oder Argumenten zu treffen. Wir präsentieren eine umfangreiche experimentelle Bewertung an fünf verschiedenen Korpora von benutzererzeugten Kommentaren, wissenschaftlichen Publikationen und überzeugenden Essays. Unsere Ergebnisse zeigen, dass unser Ansatz ein starker Wettbewerber gegenüber den neuesten Architekturen mit höherem Rechenaufwand oder korpusspezifischem Design ist und eine interessante Kompromisslösung zwischen Allgemeingültigkeit, Genauigkeit der Leistung und reduzierter Modellgröße darstellt.