HyperAIHyperAI

Command Palette

Search for a command to run...

Comparer, Comprimer et Propager : Amélioration des Architectures Neuronales par la Factorisation d'Alignement pour l'Inférence en Langage Naturel

Yi Tay; Luu Anh Tuan; Siu Cheung Hui

Résumé

Ce document présente une nouvelle architecture d'apprentissage profond pour l'Inférence en Langue Naturelle (NLI). Tout d'abord, nous introduisons une nouvelle architecture où les paires d'alignement sont comparées, compressées et ensuite propagées aux couches supérieures pour améliorer l'apprentissage des représentations. Ensuite, nous utilisons des couches de factorisation pour une compression efficace et expressive des vecteurs d'alignement en caractéristiques scalaires, qui sont ensuite utilisées pour enrichir les représentations de base des mots. La conception de notre approche vise à être conceptuellement simple, compacte et néanmoins puissante. Nous menons des expérimentations sur trois benchmarks populaires : SNLI, MultiNLI et SciTail, obtenant des performances compétitives sur chacun d'eux. Une paramétrisation légère de notre modèle bénéficie également d'une réduction d'environ 3 fois du nombre de paramètres par rapport aux modèles existants de pointe, tels que l'ESIM et le DIIN, tout en maintenant des performances compétitives. De plus, l'analyse visuelle montre que nos caractéristiques propagées sont hautement interprétables.


Créer de l'IA avec l'IA

De l'idée au lancement — accélérez votre développement IA avec le co-codage IA gratuit, un environnement prêt à l'emploi et le meilleur prix pour les GPU.

Codage assisté par IA
GPU prêts à l’emploi
Tarifs les plus avantageux

HyperAI Newsletters

Abonnez-vous à nos dernières mises à jour
Nous vous enverrons les dernières mises à jour de la semaine dans votre boîte de réception à neuf heures chaque lundi matin
Propulsé par MailChimp
Comparer, Comprimer et Propager : Amélioration des Architectures Neuronales par la Factorisation d'Alignement pour l'Inférence en Langage Naturel | Articles | HyperAI