HyperAIHyperAI

Command Palette

Search for a command to run...

Apprentissage de représentations distribuées de phrases à partir de données non étiquetées

Felix Hill; Kyunghyun Cho; Anna Korhonen

Résumé

Les méthodes non supervisées pour l'apprentissage de représentations distribuées de mots sont omniprésentes dans les recherches en traitement automatique du langage (TAL) actuelles, mais on connaît beaucoup moins bien les meilleures façons d'apprendre des représentations distribuées de phrases ou de propositions à partir de données non étiquetées. Cet article présente une comparaison systématique des modèles qui apprennent de telles représentations. Nous constatons que l'approche optimale dépend de manière cruciale de l'application prévue. Les modèles plus profonds et complexes sont préférables pour des représentations destinées à être utilisées dans des systèmes supervisés, tandis que les modèles linéaires logarithmiques simples fonctionnent le mieux pour construire des espaces de représentation qui peuvent être décryptés à l'aide de métriques spatiales simples. Nous proposons également deux nouveaux objectifs d'apprentissage non supervisé conçus pour optimiser le compromis entre le temps d'entraînement, la portabilité du domaine et les performances.


Créer de l'IA avec l'IA

De l'idée au lancement — accélérez votre développement IA avec le co-codage IA gratuit, un environnement prêt à l'emploi et le meilleur prix pour les GPU.

Codage assisté par IA
GPU prêts à l’emploi
Tarifs les plus avantageux

HyperAI Newsletters

Abonnez-vous à nos dernières mises à jour
Nous vous enverrons les dernières mises à jour de la semaine dans votre boîte de réception à neuf heures chaque lundi matin
Propulsé par MailChimp