Comparer, Comprimer et Propager : Amélioration des Architectures Neuronales par la Factorisation d'Alignement pour l'Inférence en Langage Naturel

Ce document présente une nouvelle architecture d'apprentissage profond pour l'Inférence en Langue Naturelle (NLI). Tout d'abord, nous introduisons une nouvelle architecture où les paires d'alignement sont comparées, compressées et ensuite propagées aux couches supérieures pour améliorer l'apprentissage des représentations. Ensuite, nous utilisons des couches de factorisation pour une compression efficace et expressive des vecteurs d'alignement en caractéristiques scalaires, qui sont ensuite utilisées pour enrichir les représentations de base des mots. La conception de notre approche vise à être conceptuellement simple, compacte et néanmoins puissante. Nous menons des expérimentations sur trois benchmarks populaires : SNLI, MultiNLI et SciTail, obtenant des performances compétitives sur chacun d'eux. Une paramétrisation légère de notre modèle bénéficie également d'une réduction d'environ 3 fois du nombre de paramètres par rapport aux modèles existants de pointe, tels que l'ESIM et le DIIN, tout en maintenant des performances compétitives. De plus, l'analyse visuelle montre que nos caractéristiques propagées sont hautement interprétables.