HyperAIHyperAI

Command Palette

Search for a command to run...

Encodeur de phrases basé sur un réseau neuronal récurrent avec attention gatée pour l'inférence en langage naturel

Qian Chen Zhen-Hua Ling Hui Jiang Xiaodan Zhu Si Wei Diana Inkpen

Résumé

La tâche commune RepEval 2017 vise à évaluer les modèles de compréhension du langage naturel pour la représentation des phrases, dans laquelle une phrase est représentée sous forme de vecteur de longueur fixe à l'aide de réseaux neuronaux, et la qualité de cette représentation est testée par une tâche d'inférence en langage naturel. Ce document décrit notre système (alpha) qui s'est classé parmi les meilleurs lors de cette tâche commune, tant sur l'ensemble de test intra-domaine (avec une précision de 74,9 %) que sur l'ensemble de test inter-domaines (atteignant également une précision de 74,9 %), démontrant ainsi que le modèle généralise bien aux données inter-domaines. Notre modèle est doté d'une composition d'attention intra-sentencière avec portes, ce qui contribue à améliorer ses performances. Outre la soumission de notre modèle à la tâche commune, nous l'avons également testé sur le jeu de données Stanford Natural Language Inference (SNLI). Nous obtenons une précision de 85,5 %, qui constitue le meilleur résultat rapporté sur SNLI lorsque l'attention inter-sentences n'est pas autorisée, condition identique à celle imposée lors de RepEval 2017.


Créer de l'IA avec l'IA

De l'idée au lancement — accélérez votre développement IA avec le co-codage IA gratuit, un environnement prêt à l'emploi et le meilleur prix pour les GPU.

Codage assisté par IA
GPU prêts à l’emploi
Tarifs les plus avantageux

HyperAI Newsletters

Abonnez-vous à nos dernières mises à jour
Nous vous enverrons les dernières mises à jour de la semaine dans votre boîte de réception à neuf heures chaque lundi matin
Propulsé par MailChimp