Command Palette
Search for a command to run...
Freisetzen der Kraft von neuronalen Diskursparsern – Ein kontext- und strukturaware Ansatz unter Verwendung von großskaligem Vortraining
Freisetzen der Kraft von neuronalen Diskursparsern – Ein kontext- und strukturaware Ansatz unter Verwendung von großskaligem Vortraining
Giuseppe Carenini Patrick Huber Grigorii Guz
Zusammenfassung
Die RST-basierte Diskursparsung ist eine wichtige Aufgabe im Bereich des Natural Language Processing (NLP) mit zahlreichen Anwendungen in nachgelagerten Aufgaben wie Zusammenfassung, maschinelle Übersetzung und Meinungsanalyse. In diesem Artikel präsentieren wir einen einfachen, jedoch hochgenauen Diskursparser, der kürzlich entwickelte kontextuelle Sprachmodelle integriert. Unser Parser erreicht auf zwei zentralen RST-Datensätzen, RST-DT und Instr-DT, die neue State-of-the-Art-(SOTA)-Leistung sowohl bei der Vorhersage der Struktur als auch der Nuclearität. Zudem zeigen wir, dass eine Vortrainierung unseres Parsers auf dem kürzlich verfügbaren, großskaligen „silver-standard“-Diskursbaumkorpus MEGA-DT zusätzliche Leistungsverbesserungen ermöglicht, was einen neuartigen und vielversprechenden Forschungsansatz im Bereich der Diskursanalyse nahelegt.