DR-BiLSTM : Dependent Reading Bidirectional LSTM pour l'Inférence en Langage Naturel

Nous présentons une nouvelle architecture d'apprentissage profond pour traiter la tâche de l'inférence en langage naturel (NLI). Les approches existantes reposent principalement sur des mécanismes de lecture simples pour le codage indépendant de la prémisse et de l'hypothèse. À la place, nous proposons un nouveau réseau LSTM bidirectionnel à lecture dépendante (DR-BiLSTM) afin de modéliser efficacement la relation entre une prémisse et une hypothèse lors du codage et de l'inférence. Nous introduisons également une stratégie d'ensemble sophistiquée pour combiner nos modèles proposés, ce qui améliore notablement les prédictions finales. Enfin, nous montrons comment les résultats peuvent être encore améliorés grâce à une étape supplémentaire de prétraitement. Notre évaluation montre que le DR-BiLSTM obtient les meilleurs résultats tant pour un modèle unique que pour un modèle d'ensemble, atteignant ainsi les nouveaux scores de pointe sur le jeu de données Stanford NLI.