HyperAIHyperAI

Command Palette

Search for a command to run...

Rekurrente Neuronale Netzwerk-Grammatiken

Chris Dyer Adhiguna Kuncoro Miguel Ballesteros Noah A. Smith

Zusammenfassung

Wir stellen rekurrente neuronale Netzwerkgrammatiken vor, wahrscheinlichkeitstheoretische Modelle von Sätzen mit expliziter Phrasenstruktur. Wir erläutern effiziente Inferenzverfahren, die eine Anwendung sowohl auf das Parsen als auch auf das Sprachmodellieren ermöglichen. Experimente zeigen, dass sie im Englischen bessere Parsing-Ergebnisse liefern als jedes einzelne bisher veröffentlichte überwachte generative Modell und im Englischen und Chinesischen besseres Sprachmodellieren als die derzeit besten sequentiellen RNNs (Recurrent Neural Networks).


KI mit KI entwickeln

Von der Idee bis zum Launch – beschleunigen Sie Ihre KI-Entwicklung mit kostenlosem KI-Co-Coding, sofort einsatzbereiter Umgebung und bestem GPU-Preis.

KI-gestütztes kollaboratives Programmieren
Sofort einsatzbereite GPUs
Die besten Preise

HyperAI Newsletters

Abonnieren Sie unsere neuesten Updates
Wir werden die neuesten Updates der Woche in Ihren Posteingang liefern um neun Uhr jeden Montagmorgen
Unterstützt von MailChimp
Rekurrente Neuronale Netzwerk-Grammatiken | Paper | HyperAI