Propagation de l'attention densément connectée pour la compréhension de la lecture

Nous proposons DecaProp (Densely Connected Attention Propagation), une nouvelle architecture neuronale densément connectée pour la compréhension de lecture (RC). Notre modèle présente deux caractéristiques distinctes. Premièrement, notre modèle relie densesment toutes les paires de couches du réseau, modélisant les relations entre le passage et la requête à tous les niveaux hiérarchiques. Deuxièmement, les connecteurs denses dans notre réseau sont appris par l'attention plutôt que par des connecteurs résiduels standards. À cette fin, nous proposons de nouveaux Connecteurs d'Attention Bidirectionnels (BAC) pour établir efficacement des connexions tout au long du réseau. Nous menons des expériences approfondies sur quatre benchmarks de RC difficiles. Notre approche proposée obtient des résultats de pointe sur les quatre benchmarks, surpassant les baselines existantes jusqu'à 2,6 % - 14,2 % en score F1 absolu.