HyperAIHyperAI

Command Palette

Search for a command to run...

Neurones ordonnés : Intégration des structures arborescentes dans les réseaux de neurones récurrents

Résumé

Le langage naturel est structuré de manière hiérarchique : des unités plus petites (par exemple, des groupes nominaux) sont imbriquées au sein d'unités plus grandes (par exemple, des propositions). Lorsqu'une unité plus grande se termine, toutes les unités plus petites qui y sont imbriquées doivent également être fermées. Bien que l'architecture LSTM standard permette à différents neurones de suivre des informations à différentes échelles temporelles, elle ne présente pas un biais explicite en faveur de la modélisation d'une hiérarchie d'unités. Cet article propose d'ajouter un tel biais inductif en ordonnant les neurones ; un vecteur de portes d'entrée et d'oubli maîtres garantit que lorsque l'un des neurones est mis à jour, tous les neurones qui le suivent dans l'ordre le sont également. Notre nouvelle architecture récurrente, LSTM à neurones ordonnés (ON-LSTM), obtient de bons résultats sur quatre tâches différentes : modélisation du langage, analyse syntaxique non supervisée, évaluation syntaxique ciblée et inférence logique.


Créer de l'IA avec l'IA

De l'idée au lancement — accélérez votre développement IA avec le co-codage IA gratuit, un environnement prêt à l'emploi et le meilleur prix pour les GPU.

Codage assisté par IA
GPU prêts à l’emploi
Tarifs les plus avantageux

HyperAI Newsletters

Abonnez-vous à nos dernières mises à jour
Nous vous enverrons les dernières mises à jour de la semaine dans votre boîte de réception à neuf heures chaque lundi matin
Propulsé par MailChimp