Few-shot Natural Language Generation für taskorientierte Dialoge

Als entscheidender Bestandteil von auf Aufgaben ausgerichteten Dialogsystemen wandelt das Natural Language Generation (NLG)-Modul eine in semantischer Form dargestellte Dialogaktion in eine Antwort in natürlicher Sprache um. Der Erfolg herkömmlicher, auf Vorlagen basierender oder statistischer Modelle beruht typischerweise auf umfangreichen, stark annotierten Datensätzen, die für neue Domänen nicht praktikabel sind. Daher ist es für ein NLG-System von entscheidender Bedeutung, sich mit begrenzten gelabelten Daten gut generalisieren zu können, was in realen Anwendungen erforderlich ist. Um diesem Ziel gerecht zu werden, präsentieren wir FewShotWoz, den ersten NLG-Benchmark, der die Few-Shot-Lernumgebung in auf Aufgaben ausgerichteten Dialogsystemen simuliert. Darüber hinaus entwickeln wir das SC-GPT-Modell. Es wird zunächst auf einer großen Menge annotierter NLG-Korpora vortrainiert, um eine steuerbare Generierungsfähigkeit zu erlangen, und anschließend mit nur wenigen domänenspezifischen Etiketten fine-tuned, um sich neuen Domänen anzupassen. Experimente auf FewShotWoz und dem großen Multi-Domain-WOZ-Datensatz zeigen, dass das vorgeschlagene SC-GPT im Vergleich zu bestehenden Methoden signifikant bessere Ergebnisse erzielt, gemessen an verschiedenen automatischen Metriken sowie menschlichen Bewertungen.