HyperAIHyperAI
vor 11 Tagen

Freisetzen der Kraft von neuronalen Diskursparsern – Ein kontext- und strukturaware Ansatz mittels großskaliger Vortrainierung

Grigorii Guz, Patrick Huber, Giuseppe Carenini
Freisetzen der Kraft von neuronalen Diskursparsern – Ein kontext- und strukturaware Ansatz mittels großskaliger Vortrainierung
Abstract

Die RST-basierte Diskursanalyse ist eine wichtige Aufgabe im Bereich der natürlichen Sprachverarbeitung (NLP) mit zahlreichen Anwendungen in nachgelagerten Aufgaben wie Zusammenfassung, maschinelle Übersetzung und Meinungsanalyse. In diesem Artikel präsentieren wir einen einfachen, jedoch hochgenauen Diskursparser, der kürzlich entwickelte kontextuelle Sprachmodelle integriert. Unser Parser erreicht eine neue State-of-the-Art-(SOTA)-Leistung bei der Vorhersage von Struktur und Nuclearität auf zwei zentralen RST-Datensätzen, RST-DT und Instr-DT. Darüber hinaus zeigen wir, dass die Vortrainierung unseres Parsers auf dem kürzlich verfügbaren großskaligen „silver-standard“-Diskursbaumbank MEGA-DT zusätzliche Leistungsverbesserungen ermöglicht, was einen neuartigen und vielversprechenden Forschungsansatz im Bereich der Diskursanalyse nahelegt.

Freisetzen der Kraft von neuronalen Diskursparsern – Ein kontext- und strukturaware Ansatz mittels großskaliger Vortrainierung | Neueste Forschungsarbeiten | HyperAI