Lernen von rekurrenten Spannungsrepräsentationen für extraktives Fragenbeantworten

Die Aufgabe der Leseverständnisprüfung, die Fragen zu einem gegebenen Beweisdokument stellt, ist ein zentrales Problem im Bereich der natürlichen Sprachverarbeitung. Neuere Formulierungen dieser Aufgabe haben sich in der Regel auf die Auswahl von Antworten aus einer Menge von manuell oder durch den Einsatz eines externen NLP-Pipelines vorgegebenen Kandidaten konzentriert. Rajpurkar et al. (2016) veröffentlichten jedoch kürzlich den SQuAD-Datensatz, bei dem die Antworten beliebige Zeichenfolgen aus dem bereitgestellten Text sein können. In diesem Artikel konzentrieren wir uns auf diese Aufgabe der Antwortextraktion und präsentieren eine neuartige Modellarchitektur, die mit einem rekurrenten Netzwerk effizient feste Längendarstellungen aller Bereiche im Beweisdokument erstellt. Wir zeigen, dass die Bewertung expliziter Spanndarstellungen die Leistung erheblich verbessert im Vergleich zu anderen Ansätzen, die die Vorhersage in getrennte Vorhersagen über Wörter oder Anfangs- und Endmarkierungen aufteilen. Unser Ansatz verbessert die besten bisher veröffentlichten Ergebnisse von Wang & Jiang (2016) um 5 % und reduziert den Fehler des Baselines von Rajpurkar et al. um mehr als 50 %.