HyperAIHyperAI

Command Palette

Search for a command to run...

Modélisation de langage Skip-gram à l'aide d'une estimation de probabilité matricielle creuse et non négative

Noam Shazeer; Joris Pelemans; Ciprian Chelba

Résumé

Nous présentons une nouvelle famille de techniques d'estimation des modèles de langage (LM) appelée estimation par Matrice Creuse Non-négative (SNM). Un premier ensemble d'expériences évaluant empiriquement ces techniques sur le Benchmark du Milliard de Mots montre que les modèles nnn-grammes SNM se comportent presque aussi bien que les modèles Kneser-Ney (KN) bien établis. Lorsqu'on utilise des caractéristiques skip-gram, les modèles sont capables d'égaler les performances des modèles de langage à réseau neuronal récurrent (RNN) de pointe ; la combinaison des deux techniques de modélisation donne le meilleur résultat connu sur ce benchmark. Les avantages computationnels de l'estimation SNM par rapport aux estimations des modèles de langage à entropie maximale et aux RNN LM constituent probablement sa principale force, promettant une approche qui offre la même flexibilité pour combiner efficacement des caractéristiques arbitraires tout en s'adaptant gracieusement à de très grandes quantités de données, comme le font les modèles nnn-grammes.


Créer de l'IA avec l'IA

De l'idée au lancement — accélérez votre développement IA avec le co-codage IA gratuit, un environnement prêt à l'emploi et le meilleur prix pour les GPU.

Codage assisté par IA
GPU prêts à l’emploi
Tarifs les plus avantageux

HyperAI Newsletters

Abonnez-vous à nos dernières mises à jour
Nous vous enverrons les dernières mises à jour de la semaine dans votre boîte de réception à neuf heures chaque lundi matin
Propulsé par MailChimp