HyperAIHyperAI

Command Palette

Search for a command to run...

Une analyse de la modélisation linguistique neuronale à plusieurs échelles

Stephen Merity; Nitish Shirish Keskar; Richard Socher

Résumé

De nombreuses approches de pointe en modélisation linguistique introduisent des architectures novatrices, complexes et spécialisées. Nous prenons des modèles de langage existants et de premier plan basés sur les LSTM (Long Short-Term Memory) et les QRNN (Quasi-Recurrent Neural Network) au niveau des mots, et nous les étendons à la fois à des vocabulaires plus vastes et à une granularité au niveau des caractères. Lorsqu'ils sont correctement ajustés, les LSTM et QRNN atteignent des résultats de pointe sur des jeux de données au niveau des caractères (Penn Treebank, enwik8) et au niveau des mots (WikiText-103), respectivement. Ces résultats sont obtenus en seulement 12 heures (WikiText-103) à 2 jours (enwik8) en utilisant une seule carte GPU moderne.


Créer de l'IA avec l'IA

De l'idée au lancement — accélérez votre développement IA avec le co-codage IA gratuit, un environnement prêt à l'emploi et le meilleur prix pour les GPU.

Codage assisté par IA
GPU prêts à l’emploi
Tarifs les plus avantageux

HyperAI Newsletters

Abonnez-vous à nos dernières mises à jour
Nous vous enverrons les dernières mises à jour de la semaine dans votre boîte de réception à neuf heures chaque lundi matin
Propulsé par MailChimp