Fragegenerierung im geschlossenen Buch mittels kontrastivem Lernen

Fragegenerierung (Question Generation, QG) ist eine grundlegende Aufgabe im Bereich der natürlichen Sprachverarbeitung (NLP) für zahlreiche nachgeschaltete Anwendungen. Kürzlich erzielte Studien zur offenen Buch-QG, bei denen den Modellen unterstützende Paare aus Antwort- und Kontextinformationen zur Verfügung gestellt werden, zeigten vielversprechende Fortschritte. Die Erzeugung natürlicher Fragen unter einer praktischeren, geschlossenen Buch-Situation – bei der solche unterstützenden Dokumente fehlen – bleibt jedoch weiterhin eine Herausforderung. In dieser Arbeit stellen wir ein neues QG-Modell für diese geschlossene Buch-Situation vor, das darauf ausgelegt ist, die Semantik von langen, abstraktiven Antworten besser zu verstehen und durch kontrastives Lernen sowie ein Modul zur Antwortrekonstruktion mehr Informationen in seinen Parametern zu speichern. Anhand von Experimenten validieren wir das vorgeschlagene QG-Modell sowohl auf öffentlichen Datensätzen als auch auf einem neuen Datensatz namens WikiCQA. Empirische Ergebnisse zeigen, dass das vorgeschlagene Modell sowohl bei automatisierten als auch bei menschlichen Bewertungen gegenüber Baseline-Modellen übertrifft. Zudem demonstrieren wir, wie das vorgeschlagene Modell genutzt werden kann, um bestehende Frage-Antwort-Systeme zu verbessern. Diese Ergebnisse belegen zudem die Wirksamkeit unseres QG-Modells zur Verbesserung von Frage-Antwort-Aufgaben im geschlossenen Buch-Szenario.