Mehrstilgenerative Leseverständnis

Diese Studie befasst sich mit der generativen Leseverständnisfragebeantwortung (RC), die darauf abzielt, Fragen auf Basis textlicher Beweise und natürlichsprachlicher Generierung (NLG) zu beantworten. Wir schlagen ein mehrstiliges abstraktes Zusammenfassungsmodell für die Fragebeantwortung vor, das Masque genannt wird. Das vorgeschlagene Modell weist zwei wesentliche Merkmale auf. Erstens, im Gegensatz zu den meisten RC-Studien, die sich darauf konzentriert haben, einen Antwortbereich aus den bereitgestellten Passagen zu extrahieren, fokussiert unser Modell stattdessen darauf, eine Zusammenfassung aus der Frage und mehreren Passagen zu generieren. Dies dient dazu, verschiedene Antwortstile zu berücksichtigen, die für realweltliche Anwendungen erforderlich sind. Zweitens, während frühere Studien aufgrund der Schwierigkeit, ein allgemeines Modell zu erlernen, spezifische Modelle für jeden Antwortstil entwickelt haben, lernt unser Ansatz innerhalb eines Modells mehrere Stile, um die NLG-Fähigkeiten für alle beteiligten Stile zu verbessern. Dies ermöglicht es auch unserem Modell, eine Antwort im gewünschten Stil zu geben. Experimente zeigen, dass unser Modell den aktuellen Stand der Technik in der Q&A-Aufgabe und der Q&A + NLG-Aufgabe von MS MARCO 2.1 sowie in der Zusammenfassungsaufgabe von NarrativeQA erreicht. Wir stellen fest, dass die Übertragung der stilunabhängigen NLG-Fähigkeit auf den gewünschten Stil entscheidend für dessen Erfolg ist.