HyperAIHyperAI
vor 2 Monaten

Verbesserung des neuronalen Parsens durch Trennung der Modellkombinations- und Reranking-Effekte

Daniel Fried; Mitchell Stern; Dan Klein
Verbesserung des neuronalen Parsens durch Trennung der Modellkombinations- und Reranking-Effekte
Abstract

Kürzlich wurden mehrere generative neuronale Modelle für die Konstituentenanalyse vorgeschlagen, die Stand-der-Technik-Ergebnisse erzielen. Da eine direkte Suche in diesen generativen Modellen schwierig ist, wurden sie hauptsächlich verwendet, um Kandidatausgaben von Basisparsern zu reskorieren, bei denen das Decodieren einfacher durchführbar ist. Zunächst präsentieren wir einen Algorithmus für die direkte Suche in diesen generativen Modellen. Anschließend zeigen wir, dass die Reskorierungsergebnisse zumindest teilweise auf implizite Modellkombinationen und nicht nur auf Reranking-Effekten zurückzuführen sind. Schließlich demonstrieren wir, dass explizite Modellkombinationen die Leistung weiter verbessern können, was zu neuen Stand-der-Technik-Werten von 94,25 F1 führt, wenn nur Gold-Daten verwendet werden, und 94,66 F1, wenn externe Daten eingesetzt werden (PTB).

Verbesserung des neuronalen Parsens durch Trennung der Modellkombinations- und Reranking-Effekte | Neueste Forschungsarbeiten | HyperAI