HyperAIHyperAI
vor 2 Monaten

Lernen von rekurrenten Spannungsrepräsentationen für extraktives Fragenbeantworten

Kenton Lee; Shimi Salant; Tom Kwiatkowski; Ankur Parikh; Dipanjan Das; Jonathan Berant
Lernen von rekurrenten Spannungsrepräsentationen für extraktives Fragenbeantworten
Abstract

Die Aufgabe der Leseverständnisprüfung, die Fragen zu einem gegebenen Beweisdokument stellt, ist ein zentrales Problem im Bereich der natürlichen Sprachverarbeitung. Neuere Formulierungen dieser Aufgabe haben sich in der Regel auf die Auswahl von Antworten aus einer Menge von manuell oder durch den Einsatz eines externen NLP-Pipelines vorgegebenen Kandidaten konzentriert. Rajpurkar et al. (2016) veröffentlichten jedoch kürzlich den SQuAD-Datensatz, bei dem die Antworten beliebige Zeichenfolgen aus dem bereitgestellten Text sein können. In diesem Artikel konzentrieren wir uns auf diese Aufgabe der Antwortextraktion und präsentieren eine neuartige Modellarchitektur, die mit einem rekurrenten Netzwerk effizient feste Längendarstellungen aller Bereiche im Beweisdokument erstellt. Wir zeigen, dass die Bewertung expliziter Spanndarstellungen die Leistung erheblich verbessert im Vergleich zu anderen Ansätzen, die die Vorhersage in getrennte Vorhersagen über Wörter oder Anfangs- und Endmarkierungen aufteilen. Unser Ansatz verbessert die besten bisher veröffentlichten Ergebnisse von Wang & Jiang (2016) um 5 % und reduziert den Fehler des Baselines von Rajpurkar et al. um mehr als 50 %.

Lernen von rekurrenten Spannungsrepräsentationen für extraktives Fragenbeantworten | Neueste Forschungsarbeiten | HyperAI