Zero-Shot-Empfehlung als Sprachmodellierung

Empfehlung ist die Aufgabe, Artikel (z. B. Filme oder Produkte) gemäß den individuellen Bedürfnissen eines Nutzers zu ranken. Aktuelle Systeme stützen sich auf Collaborative Filtering und content-basierte Techniken, die beide strukturierte Trainingsdaten erfordern. Wir schlagen einen Rahmen für Empfehlungen mit vortrainierten Sprachmodellen (Language Models, LM) vor, die ausschließlich unstrukturierte Textkorpora als Trainingsdaten nutzen. Wenn ein Nutzer $u$ die Filme \textit{Matrix} und \textit{Inception} mochte, erstellen wir einen textbasierten Prompt, beispielsweise \textit{„Filme wie Matrix, Inception, ${<}m{>}$“,} um die Affinität zwischen $u$ und $m$ über die Likelihood des Sprachmodells zu schätzen. Wir begründen unsere Idee durch eine Korpusanalyse, evaluieren verschiedene Prompt-Strukturen und vergleichen die LM-basierte Empfehlung mit der herkömmlichen Matrixfaktorisierung, die auf unterschiedlichen Datensätzen trainiert wurde. Der Quellcode für unsere Experimente ist öffentlich zugänglich (https://colab.research.google.com/drive/1f1mlZ-FGaLGdo5rPzxf3vemKllbh2esT?usp=sharing).