DR-BiLSTM: Abhängiges Lesen bidirektionale LSTM für natürliche Sprachinferenz

Wir präsentieren eine neuartige Deep-Learning-Architektur zur Bearbeitung der Aufgabe der natürlichsprachlichen Inferenz (NLI). Bestehende Ansätze basieren in der Regel auf einfachen Lesemechanismen für die unabhängige Kodierung von Prämisse und Hypothese. Stattdessen schlagen wir ein neuartiges abhängiges Lesen mit einem bidirektionalen LSTM-Netzwerk (DR-BiLSTM) vor, um während der Kodierung und Inferenz die Beziehung zwischen einer Prämisse und einer Hypothese effizient zu modellieren. Zudem führen wir eine ausgefeilte Ensemble-Strategie ein, um unsere vorgeschlagenen Modelle zu kombinieren, was die endgültigen Vorhersagen erheblich verbessert. Schließlich zeigen wir, wie die Ergebnisse durch einen zusätzlichen Vorkodierungs-Schritt weiter optimiert werden können. Unsere Auswertung ergibt, dass das DR-BiLSTM sowohl die besten Einzelmodellergebnisse als auch die besten Ensemblemodellergebnisse erzielt und damit neue Stand-of-the-Art-Werte auf dem Stanford NLI-Datensatz erreicht.