HyperAIHyperAI

Command Palette

Search for a command to run...

Verknüpfte wahrscheinlichkeitstheoretische kontextfreie Grammatiken für die Grammatikinduktion

Zhiyuan Liu Yiming Yang Xun Zheng

Zusammenfassung

Wir untersuchen eine Formalisierung des Grammatikinduktionsproblems, bei der Sätze als von einer zusammengesetzten wahrscheinlichkeitstheoretischen kontextfreien Grammatik erzeugt werden modelliert. Im Gegensatz zu traditionellen Formulierungen, die eine einzelne stochastische Grammatik lernen, werden die Regelwahrscheinlichkeiten unserer Grammatik durch eine für jeden Satz spezifische kontinuierliche latente Variable moduliert, die marginale Abhängigkeiten über die traditionellen kontextfreien Annahmen hinaus induziert. Die Inferenz in dieser Grammatik erfolgt durch kollabiertes variationales Inferenzverfahren, bei dem ein amortisiertes variationales Posterior auf die kontinuierliche Variable platziert wird und die latenten Bäume mit dynamischer Programmierung marginalisiert werden. Experimente mit Englisch und Chinesisch zeigen die Effektivität unseres Ansatzes im Vergleich zu aktuellen Stand-der-Kunst-Methoden bei der Bewertung auf unüberwachtem Parsing.


KI mit KI entwickeln

Von der Idee bis zum Launch – beschleunigen Sie Ihre KI-Entwicklung mit kostenlosem KI-Co-Coding, sofort einsatzbereiter Umgebung und bestem GPU-Preis.

KI-gestütztes kollaboratives Programmieren
Sofort einsatzbereite GPUs
Die besten Preise

HyperAI Newsletters

Abonnieren Sie unsere neuesten Updates
Wir werden die neuesten Updates der Woche in Ihren Posteingang liefern um neun Uhr jeden Montagmorgen
Unterstützt von MailChimp
Verknüpfte wahrscheinlichkeitstheoretische kontextfreie Grammatiken für die Grammatikinduktion | Paper | HyperAI