Modèles multilingues pour la sémantique distribuée compositionnelle

Nous présentons une nouvelle technique pour l'apprentissage de représentations sémantiques, qui étend l'hypothèse distributionnelle aux données multilingues et aux plongements dans un espace conjoint. Nos modèles exploitent des données parallèles et apprennent à aligner fortement les plongements de phrases sémantiquement équivalentes, tout en maintenant une distance suffisante entre ceux de phrases dissemblables. Les modèles ne reposent pas sur des alignements de mots ou toute information syntaxique et sont appliqués avec succès à un certain nombre de langues diverses. Nous étendons notre approche pour apprendre des représentations sémantiques au niveau du document également. Nous évaluons ces modèles sur deux tâches de classification de documents translingue, surpassant l'état de l'art précédent. Par le biais d'une analyse qualitative et de l'étude des effets pivot, nous démontrons que nos représentations sont sémantiquement plausibles et peuvent capturer des relations sémantiques entre les langues sans données parallèles.