Wissensgraphen und vortrainierte Sprachmodelle zur verbesserten Repräsentationslernung für conversationelle Empfehlungssysteme

Konversationelle Empfehlungssysteme (Conversational Recommender Systems, CRS) nutzen natürliche Sprachinteraktionen und Dialogverläufe, um Benutzerpräferenzen abzuleiten und präzise Empfehlungen zu geben. Aufgrund der begrenzten Gesprächskontexte und Hintergrundwissen greifen bestehende CRS-Systeme auf externe Quellen wie Wissensgraphen zurück, um den Kontext zu erweitern und Entitäten anhand ihrer Inter-Beziehungen zu modellieren. Diese Ansätze ignorieren jedoch die reichhaltige intrinsische Information innerhalb der Entitäten. Um dieses Problem anzugehen, stellen wir den Knowledge-Enhanced Entity Representation Learning (KERL)-Rahmen vor, der sowohl einen Wissensgraphen als auch einen vortrainierten Sprachmodell nutzt, um das semantische Verständnis von Entitäten für CRS zu verbessern. Im KERL-Rahmen werden entitätsbezogene Textbeschreibungen mittels eines vortrainierten Sprachmodells kodiert, während der Wissensgraph die Darstellung dieser Entitäten verstärkt. Zudem verwenden wir Positionscodierung, um die zeitliche Information von Entitäten innerhalb eines Gesprächs effektiv zu erfassen. Die verbesserte Entitätsdarstellung dient dann zur Entwicklung eines Empfehlungsmoduls, das sowohl Entitäts- als auch Kontextdarstellungen fusioniert, um fundiertere Empfehlungen zu liefern, sowie eines Dialogmoduls, das informative, entitätsbezogene Informationen im Antworttext generiert. Zur Unterstützung unserer Studie wurde ein hochwertiger, mit entitätsbezogenen Beschreibungen ausgerichteter Wissensgraph, der Wiki Movie Knowledge Graph (WikiMKG), erstellt. Die experimentellen Ergebnisse zeigen, dass KERL sowohl in der Empfehlungsaufgabe als auch in der Antwortgenerierung state-of-the-art-Leistungen erzielt.