HyperAIHyperAI
il y a 2 mois

Réseaux de Neurones Convolutifs avec Filtres de Neurones Récursifs

Yi Yang
Réseaux de Neurones Convolutifs avec Filtres de Neurones Récursifs
Résumé

Nous présentons une classe de réseaux neuronaux convolutifs (CNNs) qui utilisent des réseaux neuronaux récurrents (RNNs) comme filtres de convolution. Un filtre de convolution est généralement mis en œuvre sous la forme d'une transformation affine linéaire suivie d'une fonction non-linéaire, ce qui ne prend pas en compte la compositionnalité du langage. En conséquence, cela limite l'utilisation de filtres d'ordre supérieur, souvent justifiés pour les tâches de traitement du langage naturel. Dans cette étude, nous modélisons les filtres de convolution avec des RNNs qui captent naturellement la compositionnalité et les dépendances à long terme dans le langage. Nous montrons que des architectures CNN simples équipées de filtres neuronaux récurrents (FNRs) obtiennent des résultats comparables aux meilleurs publiés sur le Stanford Sentiment Treebank et deux jeux de données de sélection de phrases répondant.