HyperAIHyperAI

Command Palette

Search for a command to run...

Unüberwachte rekurrente Neuronale Netze-Grammatiken

Yoon Kim Alexander M. Rush Lei Yu Adhiguna Kuncoro Chris Dyer Gábor Melis

Zusammenfassung

Rekurrente neuronale Netzwerkgrammatiken (RNNG) sind generative Modelle der Sprache, die Syntax und Oberflächenstruktur durch inkrementelles Erzeugen eines Syntaxbaums und eines Satzes in einer von oben nach unten, von links nach rechts gerichteten Reihenfolge gemeinsam modellieren. Überwachte RNNGs erzielen starke Leistungen im Sprachmodellieren und Parsing, benötigen aber ein annotiertes Korpus von Parsebäumen. In dieser Arbeit experimentieren wir mit dem unüberwachten Lernen von RNNGs. Da das direkte Marginalisieren über den Raum der latenten Bäume nicht praktikabel ist, wenden wir stattdessen amortisierte variationelle Inferenz an. Um die untere Schranke des Beweises zu maximieren, entwickeln wir ein Inferenznetzwerk, das als neuronales CRF-Konstituentenparser parametrisiert ist. Im Sprachmodellieren erreichen unüberwachte RNNGs vergleichbare Leistungen wie ihre überwachten Gegenstücke bei Benchmarks in Englisch und Chinesisch. Bei der Induktion von Konstituentengrammatiken sind sie wettbewerbsfähig mit aktuellen neuronalen Sprachmodellen, die durch Aufmerksamkeitsmechanismen Baumstrukturen aus Wörtern ableiten.


KI mit KI entwickeln

Von der Idee bis zum Launch – beschleunigen Sie Ihre KI-Entwicklung mit kostenlosem KI-Co-Coding, sofort einsatzbereiter Umgebung und bestem GPU-Preis.

KI-gestütztes kollaboratives Programmieren
Sofort einsatzbereite GPUs
Die besten Preise

HyperAI Newsletters

Abonnieren Sie unsere neuesten Updates
Wir werden die neuesten Updates der Woche in Ihren Posteingang liefern um neun Uhr jeden Montagmorgen
Unterstützt von MailChimp