vor 2 Monaten
Rekurrente Neuronale Netzwerk-Grammatiken
Chris Dyer; Adhiguna Kuncoro; Miguel Ballesteros; Noah A. Smith

Abstract
Wir stellen rekurrente neuronale Netzwerkgrammatiken vor, wahrscheinlichkeitstheoretische Modelle von Sätzen mit expliziter Phrasenstruktur. Wir erläutern effiziente Inferenzverfahren, die eine Anwendung sowohl auf das Parsen als auch auf das Sprachmodellieren ermöglichen. Experimente zeigen, dass sie im Englischen bessere Parsing-Ergebnisse liefern als jedes einzelne bisher veröffentlichte überwachte generative Modell und im Englischen und Chinesischen besseres Sprachmodellieren als die derzeit besten sequentiellen RNNs (Recurrent Neural Networks).