HyperAIHyperAI

Command Palette

Search for a command to run...

Die Grenzen des Sprachmodellierens erforschen

Rafal Jozefowicz; Oriol Vinyals; Mike Schuster; Noam Shazeer; Yonghui Wu

Zusammenfassung

In dieser Arbeit untersuchen wir die jüngsten Fortschritte bei rekurrenten Neuronalen Netzen (Recurrent Neural Networks) im Bereich der großskaligen Sprachmodellierung, einer zentralen Aufgabe für das Sprachverständnis. Wir erweitern aktuelle Modelle, um zwei wesentliche Herausforderungen in diesem Bereich zu bewältigen: die Größen von Korpora und Vokabularien sowie die komplexe, langfristige Struktur von Sprache. Wir führen eine umfassende Studie über Techniken wie zeichenbasierte Faltungsneuronale Netze (character Convolutional Neural Networks) oder Langzeit-Kurzzeit-Gedächtnis (Long-Short Term Memory) durch, basierend auf dem One Billion Word Benchmark. Unser bestes einzelnes Modell verbessert den Stand der Technik signifikant, indem es die Perplexität von 51,3 auf 30,0 senkt (wobei gleichzeitig die Anzahl der Parameter um einen Faktor von 20 reduziert wird). Ein Ensemble von Modellen setzt einen neuen Rekord, indem es die Perplexität von 41,0 auf 23,7 senkt. Zudem stellen wir diese Modelle zur Verfügung, damit sie von der NLP- und ML-Gemeinschaft studiert und weiter verbessert werden können.


KI mit KI entwickeln

Von der Idee bis zum Launch – beschleunigen Sie Ihre KI-Entwicklung mit kostenlosem KI-Co-Coding, sofort einsatzbereiter Umgebung und bestem GPU-Preis.

KI-gestütztes kollaboratives Programmieren
Sofort einsatzbereite GPUs
Die besten Preise

HyperAI Newsletters

Abonnieren Sie unsere neuesten Updates
Wir werden die neuesten Updates der Woche in Ihren Posteingang liefern um neun Uhr jeden Montagmorgen
Unterstützt von MailChimp
Die Grenzen des Sprachmodellierens erforschen | Paper | HyperAI