HyperAIHyperAI

Command Palette

Search for a command to run...

Amélioration des représentations sémantiques à partir de réseaux neuronaux à mémoire à court et long terme structurés en arbre

Kai Sheng Tai Richard Socher* Christopher D. Manning

Résumé

En raison de leur capacité supérieure à préserver les informations séquentielles au fil du temps, les réseaux Long Short-Term Memory (LSTM), un type de réseau neuronal récurrent doté d'une unité de calcul plus complexe, ont obtenu des résultats solides sur diverses tâches de modélisation séquentielle. Jusqu'à présent, la seule structure sous-jacente d'architecture LSTM explorée est une chaîne linéaire. Cependant, le langage naturel présente des propriétés syntaxiques qui combinent naturellement les mots en phrases. Nous introduisons le Tree-LSTM, une généralisation des LSTM aux topologies de réseau arborescent. Les Tree-LSTM surpassent tous les systèmes existants et les LSTM de base robustes sur deux tâches : la prédiction de la pertinence sémantique entre deux phrases (SemEval 2014, Tâche 1) et la classification des sentiments (Stanford Sentiment Treebank).


Créer de l'IA avec l'IA

De l'idée au lancement — accélérez votre développement IA avec le co-codage IA gratuit, un environnement prêt à l'emploi et le meilleur prix pour les GPU.

Codage assisté par IA
GPU prêts à l’emploi
Tarifs les plus avantageux

HyperAI Newsletters

Abonnez-vous à nos dernières mises à jour
Nous vous enverrons les dernières mises à jour de la semaine dans votre boîte de réception à neuf heures chaque lundi matin
Propulsé par MailChimp