HyperAIHyperAI
vor 2 Monaten

Rekurrente Neuronale Netzwerk-Grammatiken

Chris Dyer; Adhiguna Kuncoro; Miguel Ballesteros; Noah A. Smith
Rekurrente Neuronale Netzwerk-Grammatiken
Abstract

Wir stellen rekurrente neuronale Netzwerkgrammatiken vor, wahrscheinlichkeitstheoretische Modelle von Sätzen mit expliziter Phrasenstruktur. Wir erläutern effiziente Inferenzverfahren, die eine Anwendung sowohl auf das Parsen als auch auf das Sprachmodellieren ermöglichen. Experimente zeigen, dass sie im Englischen bessere Parsing-Ergebnisse liefern als jedes einzelne bisher veröffentlichte überwachte generative Modell und im Englischen und Chinesischen besseres Sprachmodellieren als die derzeit besten sequentiellen RNNs (Recurrent Neural Networks).

Rekurrente Neuronale Netzwerk-Grammatiken | Neueste Forschungsarbeiten | HyperAI