Maschinelles Verstehen mit Match-LSTM und Antwortzeiger

Die maschinelle Textverstehensfähigkeit ist ein wichtiges Problem im Bereich der natürlichen Sprachverarbeitung. Ein kürzlich veröffentlichter Datensatz, das Stanford Question Answering Dataset (SQuAD), bietet eine große Anzahl von echten Fragen und deren Antworten, die durch Crowdsourcing von Menschen erstellt wurden. SQuAD stellt eine herausfordernde Testumgebung für die Bewertung von Algorithmen zur maschinellen Textverstehensfähigkeit dar, teilweise aufgrund der Tatsache, dass im Vergleich zu früheren Datensätzen die Antworten in SQuAD nicht aus einer kleinen Menge von Kandidatenantworten stammen und variierende Längen haben. Wir schlagen eine end-to-end neuronale Architektur für diese Aufgabe vor. Diese Architektur basiert auf dem Match-LSTM-Modell, das wir zuvor für textuelle Implikation vorgeschlagen haben, sowie auf dem Pointer Net, einem sequenz-zu-sequenz-Modell, das von Vinyals et al. (2015) entwickelt wurde, um die Ausgabetoken auf die Eingabesequenzen zu beschränken. Wir schlagen zwei Methoden vor, wie Pointer Net für unsere Aufgabe eingesetzt werden kann. Unsere Experimente zeigen, dass beide unserer Modelle die besten Ergebnisse übertreffen, die Rajpurkar et al. (2016) mit logistischer Regression und manuell erstellten Merkmalen erzielt haben.