HyperAIHyperAI

Command Palette

Search for a command to run...

Exploration des limites de la modélisation linguistique

Rafal Jozefowicz; Oriol Vinyals; Mike Schuster; Noam Shazeer; Yonghui Wu

Résumé

Dans cette étude, nous explorons les récentes avancées en matière de Réseaux de Neurones Récursifs pour la modélisation linguistique à grande échelle, une tâche centrale dans la compréhension des langues. Nous étendons les modèles actuels afin de relever deux défis majeurs liés à cette tâche : les tailles des corpus et du vocabulaire, ainsi que la structure complexe et à long terme des langues. Nous menons une étude approfondie sur des techniques telles que les Réseaux de Neurones Convolutifs basés sur les caractères ou la Mémoire à Court et Long Terme (Long-Short Term Memory), en utilisant le Benchmark d'un Milliard de Mots. Notre meilleur modèle unique améliore considérablement l'état de l'art en réduisant la perplexité de 51,3 à 30,0 (tout en diminuant le nombre de paramètres par un facteur de 20), tandis qu'un ensemble de modèles établit un nouveau record en améliorant la perplexité de 41,0 à 23,7. Nous mettons également ces modèles à disposition de la communauté NLP et ML pour qu'elle puisse les étudier et les améliorer.


Créer de l'IA avec l'IA

De l'idée au lancement — accélérez votre développement IA avec le co-codage IA gratuit, un environnement prêt à l'emploi et le meilleur prix pour les GPU.

Codage assisté par IA
GPU prêts à l’emploi
Tarifs les plus avantageux

HyperAI Newsletters

Abonnez-vous à nos dernières mises à jour
Nous vous enverrons les dernières mises à jour de la semaine dans votre boîte de réception à neuf heures chaque lundi matin
Propulsé par MailChimp