HyperAIHyperAI

Command Palette

Search for a command to run...

Lernen von rekurrenten Spannungsrepräsentationen für extraktives Fragenbeantworten

Kenton Lee; Shimi Salant; Tom Kwiatkowski; Ankur Parikh; Dipanjan Das; Jonathan Berant

Zusammenfassung

Die Aufgabe der Leseverständnisprüfung, die Fragen zu einem gegebenen Beweisdokument stellt, ist ein zentrales Problem im Bereich der natürlichen Sprachverarbeitung. Neuere Formulierungen dieser Aufgabe haben sich in der Regel auf die Auswahl von Antworten aus einer Menge von manuell oder durch den Einsatz eines externen NLP-Pipelines vorgegebenen Kandidaten konzentriert. Rajpurkar et al. (2016) veröffentlichten jedoch kürzlich den SQuAD-Datensatz, bei dem die Antworten beliebige Zeichenfolgen aus dem bereitgestellten Text sein können. In diesem Artikel konzentrieren wir uns auf diese Aufgabe der Antwortextraktion und präsentieren eine neuartige Modellarchitektur, die mit einem rekurrenten Netzwerk effizient feste Längendarstellungen aller Bereiche im Beweisdokument erstellt. Wir zeigen, dass die Bewertung expliziter Spanndarstellungen die Leistung erheblich verbessert im Vergleich zu anderen Ansätzen, die die Vorhersage in getrennte Vorhersagen über Wörter oder Anfangs- und Endmarkierungen aufteilen. Unser Ansatz verbessert die besten bisher veröffentlichten Ergebnisse von Wang & Jiang (2016) um 5 % und reduziert den Fehler des Baselines von Rajpurkar et al. um mehr als 50 %.


KI mit KI entwickeln

Von der Idee bis zum Launch – beschleunigen Sie Ihre KI-Entwicklung mit kostenlosem KI-Co-Coding, sofort einsatzbereiter Umgebung und bestem GPU-Preis.

KI-gestütztes kollaboratives Programmieren
Sofort einsatzbereite GPUs
Die besten Preise

HyperAI Newsletters

Abonnieren Sie unsere neuesten Updates
Wir werden die neuesten Updates der Woche in Ihren Posteingang liefern um neun Uhr jeden Montagmorgen
Unterstützt von MailChimp
Lernen von rekurrenten Spannungsrepräsentationen für extraktives Fragenbeantworten | Paper | HyperAI