HyperAIHyperAI

Command Palette

Search for a command to run...

Modèles multilingues pour la sémantique distribuée compositionnelle

Karl Moritz Hermann Phil Blunsom

Résumé

Nous présentons une nouvelle technique pour l'apprentissage de représentations sémantiques, qui étend l'hypothèse distributionnelle aux données multilingues et aux plongements dans un espace conjoint. Nos modèles exploitent des données parallèles et apprennent à aligner fortement les plongements de phrases sémantiquement équivalentes, tout en maintenant une distance suffisante entre ceux de phrases dissemblables. Les modèles ne reposent pas sur des alignements de mots ou toute information syntaxique et sont appliqués avec succès à un certain nombre de langues diverses. Nous étendons notre approche pour apprendre des représentations sémantiques au niveau du document également. Nous évaluons ces modèles sur deux tâches de classification de documents translingue, surpassant l'état de l'art précédent. Par le biais d'une analyse qualitative et de l'étude des effets pivot, nous démontrons que nos représentations sont sémantiquement plausibles et peuvent capturer des relations sémantiques entre les langues sans données parallèles.


Créer de l'IA avec l'IA

De l'idée au lancement — accélérez votre développement IA avec le co-codage IA gratuit, un environnement prêt à l'emploi et le meilleur prix pour les GPU.

Codage assisté par IA
GPU prêts à l’emploi
Tarifs les plus avantageux

HyperAI Newsletters

Abonnez-vous à nos dernières mises à jour
Nous vous enverrons les dernières mises à jour de la semaine dans votre boîte de réception à neuf heures chaque lundi matin
Propulsé par MailChimp
Modèles multilingues pour la sémantique distribuée compositionnelle | Articles | HyperAI