HyperAIHyperAI
vor 17 Tagen

Zur vereinheitlichten conversationellen Empfehlungssystemen durch wissensbasierte Prompt-Lernverfahren

Xiaolei Wang, Kun Zhou, Ji-Rong Wen, Wayne Xin Zhao
Zur vereinheitlichten conversationellen Empfehlungssystemen durch wissensbasierte Prompt-Lernverfahren
Abstract

Konversationelle Empfehlungssysteme (CRS) zielen darauf ab, Benutzerpräferenzen proaktiv zu ermitteln und hochwertige Artikel durch natürlichsprachliche Gespräche zu empfehlen. Typischerweise besteht ein CRS aus einem Empfehlungsmodul zur Vorhersage bevorzugter Artikel für Benutzer und einem Konversationsmodul zur Generierung angemessener Antworten. Um ein effektives CRS zu entwickeln, ist eine nahtlose Integration beider Module entscheidend. Bisherige Ansätze entweder entwerfen Strategien zur semantischen Ausrichtung oder teilen Wissensressourcen und Darstellungen zwischen den beiden Modulen. Diese Ansätze stützen sich jedoch weiterhin auf unterschiedliche Architekturen oder Techniken zur Entwicklung der einzelnen Module, was eine effektive Modulintegration erschwert.Um dieses Problem zu lösen, schlagen wir ein einheitliches CRS-Modell namens UniCRS vor, das auf einer wissensbasierten Prompt-Lernmethode basiert. Unser Ansatz integriert die Empfehlungs- und Konversationsunteraufgaben in das Prompt-Lernparadigma und nutzt wissensbasierte Prompts, die auf einem festen vortrainierten Sprachmodell (PLM) basieren, um beide Unterfunktionen einheitlich zu bewältigen. Bei der Prompt-Designierung integrieren wir gefundene Wissensdarstellungen, aufgabe-spezifische Soft-Tokens und den Gesprächskontext, um dem PLM ausreichend kontextuelle Information zur Anpassung an die CRS-Aufgabe bereitzustellen. Zusätzlich nehmen wir für die Empfehlungsunteraufgabe auch den generierten Antwortmuster als wichtigen Bestandteil des Prompts auf, um die Informationsinteraktion zwischen den beiden Unterfunktionen zu stärken. Umfassende Experimente auf zwei öffentlichen CRS-Datensätzen belegen die Wirksamkeit unseres Ansatzes.