HyperAIHyperAI

Command Palette

Search for a command to run...

Verbesserte variationelle Autoencoder für Textmodellierung durch Verwendung dilaterter Faltungen

Zichao Yang Zhiting Hu Ruslan Salakhutdinov Taylor Berg-Kirkpatrick

Zusammenfassung

Neuere Arbeiten zum generativen Modellieren von Text haben gezeigt, dass Variations-Autoencoder (VAE) mit LSTM-Decodern schlechter abschneiden als einfachere LSTM-Sprachmodelle (Bowman et al., 2015). Dieses negative Ergebnis ist bisher nur unzureichend verstanden, wurde aber der Tendenz zugeschrieben, dass LSTM-Decoder Informationen aus dem Encoder ignorieren. In dieser Arbeit experimentieren wir mit einem neuen Typ von Decoder für VAE: einem dilatierten CNN. Durch die Anpassung der Dilatationsarchitektur des Decoders können wir den effektiven Kontext von zuvor generierten Wörtern steuern. In unseren Experimenten finden wir einen Kompromiss zwischen der kontextuellen Kapazität des Decoders und der Menge an Codierungsinformationen, die verwendet werden. Wir zeigen, dass VAE mit dem richtigen Decoder LSTM-Sprachmodelle übertreffen können. Wir demonstrieren Verbesserungen der Perplexität auf zwei Datensätzen, was das erste positive experimentelle Ergebnis zur Verwendung von VAE für das generative Modellieren von Text darstellt. Darüber hinaus führen wir eine detaillierte Untersuchung der Verwendung von VAE (mit unserer neuen Dekodierarchitektur) für semi-überwachte und unüberwachte Labeling-Aufgaben durch und zeigen Verbesserungen gegenüber mehreren starken Baselines.


KI mit KI entwickeln

Von der Idee bis zum Launch – beschleunigen Sie Ihre KI-Entwicklung mit kostenlosem KI-Co-Coding, sofort einsatzbereiter Umgebung und bestem GPU-Preis.

KI-gestütztes kollaboratives Programmieren
Sofort einsatzbereite GPUs
Die besten Preise

HyperAI Newsletters

Abonnieren Sie unsere neuesten Updates
Wir werden die neuesten Updates der Woche in Ihren Posteingang liefern um neun Uhr jeden Montagmorgen
Unterstützt von MailChimp