HyperAIHyperAI

Command Palette

Search for a command to run...

Effizientes und robustes Fragenbeantworten aus minimalem Kontext in Dokumenten

Sewon Min Victor Zhong Richard Socher Caiming Xiong

Zusammenfassung

Neuronale Modelle für die Fragebeantwortung (QA) in Dokumenten haben erhebliche Leistungsverbesserungen erzielt. Trotz ihrer Effektivität skaliert diese Art von Modellen auf große Korpora nicht gut, da sie komplexe Interaktionen zwischen dem Dokument und der Frage modellieren. Zudem haben jüngste Studien gezeigt, dass solche Modelle anfällig für feindselige Eingaben sind. In dieser Arbeit untersuchen wir den minimalen Kontext, der erforderlich ist, um eine Frage zu beantworten, und stellen fest, dass die meisten Fragen in existierenden Datensätzen mit einer kleinen Anzahl von Sätzen beantwortet werden können. Inspiriert durch diese Erkenntnis schlagen wir einen einfachen Satzauswahler vor, um die minimale Menge an Sätzen auszuwählen, die dem QA-Modell zur Verfügung gestellt werden sollen. Unser Gesamtsystem erreicht erhebliche Reduktionen in den Trainingszeiten (bis zu 15-fach) und Schließleistungszeiten (bis zu 13-fach), wobei die Genauigkeit vergleichbar oder besser als der aktuelle Stand der Technik auf SQuAD, NewsQA, TriviaQA und SQuAD-Open ist. Darüber hinaus zeigen unsere experimentellen Ergebnisse und Analysen, dass unser Ansatz gegenüber feindseligen Eingaben robuster ist.


KI mit KI entwickeln

Von der Idee bis zum Launch – beschleunigen Sie Ihre KI-Entwicklung mit kostenlosem KI-Co-Coding, sofort einsatzbereiter Umgebung und bestem GPU-Preis.

KI-gestütztes kollaboratives Programmieren
Sofort einsatzbereite GPUs
Die besten Preise

HyperAI Newsletters

Abonnieren Sie unsere neuesten Updates
Wir werden die neuesten Updates der Woche in Ihren Posteingang liefern um neun Uhr jeden Montagmorgen
Unterstützt von MailChimp
Effizientes und robustes Fragenbeantworten aus minimalem Kontext in Dokumenten | Paper | HyperAI