Gemeinsame Optimierung von Vielfalt und Relevanz in der Generierung neuronaler Antworten

Obwohl neuere neuronale Konversationsmodelle großes Potenzial gezeigt haben, erzeugen sie oft fade und generische Antworten. Während verschiedene Ansätze untersucht wurden, um die Ausgabe der Konversationsmodelle zu diversifizieren, geht dieser Fortschritt oft auf Kosten der Relevanz. In dieser Arbeit schlagen wir ein SpaceFusion-Modell vor, das Diversität und Relevanz gemeinsam optimiert, indem es den latente Raum eines Sequenz-zu-Sequenz-Modells und den des Autoencoder-Modells durch die Nutzung neuer Regularisierungsterme fusioniert. Als Ergebnis induziert unser Ansatz einen latenten Raum, in dem der Abstand und die Richtung vom vorhergesagten Antwortvektor grob der Relevanz und der Diversität entsprechen. Diese Eigenschaft eignet sich auch gut für eine intuitive Visualisierung des latenten Raums. Sowohl automatische als auch menschliche Evaluationsresultate zeigen, dass der vorgeschlagene Ansatz im Vergleich zu starken Baseline-Methoden in Bezug auf Diversität und Relevanz signifikante Verbesserungen bringt.