HyperAIHyperAI
vor 2 Monaten

Effizientes und robustes Fragenbeantworten aus minimalem Kontext in Dokumenten

Sewon Min; Victor Zhong; Richard Socher; Caiming Xiong
Effizientes und robustes Fragenbeantworten aus minimalem Kontext in Dokumenten
Abstract

Neuronale Modelle für die Fragebeantwortung (QA) in Dokumenten haben erhebliche Leistungsverbesserungen erzielt. Trotz ihrer Effektivität skaliert diese Art von Modellen auf große Korpora nicht gut, da sie komplexe Interaktionen zwischen dem Dokument und der Frage modellieren. Zudem haben jüngste Studien gezeigt, dass solche Modelle anfällig für feindselige Eingaben sind. In dieser Arbeit untersuchen wir den minimalen Kontext, der erforderlich ist, um eine Frage zu beantworten, und stellen fest, dass die meisten Fragen in existierenden Datensätzen mit einer kleinen Anzahl von Sätzen beantwortet werden können. Inspiriert durch diese Erkenntnis schlagen wir einen einfachen Satzauswahler vor, um die minimale Menge an Sätzen auszuwählen, die dem QA-Modell zur Verfügung gestellt werden sollen. Unser Gesamtsystem erreicht erhebliche Reduktionen in den Trainingszeiten (bis zu 15-fach) und Schließleistungszeiten (bis zu 13-fach), wobei die Genauigkeit vergleichbar oder besser als der aktuelle Stand der Technik auf SQuAD, NewsQA, TriviaQA und SQuAD-Open ist. Darüber hinaus zeigen unsere experimentellen Ergebnisse und Analysen, dass unser Ansatz gegenüber feindseligen Eingaben robuster ist.

Effizientes und robustes Fragenbeantworten aus minimalem Kontext in Dokumenten | Neueste Forschungsarbeiten | HyperAI